Nowości o MT

MT czy AI? Najnowszy raport Intento

Najnowszy raport Intento Generative AI for Translation in 2024 wskazuje, że:

  • Jeśli mamy już ustabilizowany proces tłumaczenia z jednym lub kilkoma wybranymi i dostosowanymi modelami MT – i działa on dobrze – to nie musimy się spieszyć i zastępować go GenAI (jeszcze nie). Możemy wypróbować AI jako opcję, ale bez nerwowych ruchów.
  • Jeśli nie mamy w procesie tłumaczenia żadnego MT (a chcielibyśmy je mieć) – lub mamy, ale nienawidzimy – to wypróbujmy i MT, i GenAI.
  • Jeśli już używamy AI do generowania treści w jednym języku – lub jeśli planujemy to zrobić – sprawdźmy, czy AI może też generować treści w innych językach, których potrzebujemy, zwłaszcza jeśli są to języki popularne w Internecie (a więc takie, dla których GenAI mają dużo danych treningowych).

AI: skąd bierze, dokąd publikuje

Podczas gdy rozważania o roli generatywnego AI w dziejach świata wahają się od zachwytów po wieszczenie katastrofy (a gdzieś pośrodku jest postawa “meh, mielenie nudy”) – warto przyjrzeć się dwóm zagadnieniom:

  • skąd brane są treści, na których trenowany jest dany model językowy – np. czy zawsze możemy licencjonować tekst, kod lub obraz, który AI dla nas wygenerowało?
  • jak rozpoznać treści, które powstały przy użyciu generatywnego AI – np. kiedy jako konsument mamy gwarancję, że poprawność danego materiału została zweryfikowana przez człowieka?

Dwa podejścia do tych zagadnień proponują:

Glosariusz DeepL w CAT-ach

DeepL: robi funkcję glosariusza do MT prostą jak irlandzka dzida bojowa
memoQ: robi obsługę glosariusza DeepL równie prostą, wczytujesz słowniczek z pliku CSV i jedziesz
RWS: robi obsługę glosariusza DeepL w Tradosie tak skomplikowaną, że wymaga dokumentacji, a i tak w pierwszej chwili trudno się w niej połapać, sądząc po reakcjach na forum (oraz wciąż ma parę bugów, które zgłosiłam w beta testach, ale nie powiem które to – niech każdy ma swój kawałek rozrywki 🙂

W każdym razie: glosariusz do DeepLa w Tradosie już jest, w podtłumaczaniu działa jak złoto, odmienia przez przypadki itd.

Uwaga 1: tylko do (od?) Tradosa 2022.
Uwaga 2: glosariusz na stronie DeepL i glosariusz do CAT-a to dwa różne glosariusze, tak to DeepL zorganizował. Można eksportować i importować, formatem wymiany jest podstawowy CSV.
Instalacja stąd: https://appstore.rws.com/Plugin/24
Dokumentacja tu: https://community.rws.com/…/deepl-translation-provider
A z burzliwą historią powstawania można się zapoznać (lub coś w niej od siebie pomarudzić) tutaj: https://community.rws.com/…/deepl-plugin…/159430

ISO ex machina

Ciekawe, czy uda się wdrożyć wróżenie jakości MT, które będzie dobrze skorelowane z faktyczną jakością MT ocenioną przez człowieka – czyli tekst postedytowany (zgodnie z wróżbą “tu trzeba”) i tekst niepostedytowany (zgodnie z wróżbą “nie trzeba”) będą nie do odróżnienia przez korektę/redakcję, zwłaszcza pod względem merytorycznym. Koncepcję objaśnia Adam Bittlingmayer, dyrektor firmy ModelFront zajmującej się – a jakże – wróżeniem jakości MT, w artykule dla tcworld.info:

“A quality prediction score should correlate with the decision of a professional human translator to edit or not edit a segment in a given translation workflow. (…) The most important question is whether humans can even tell the difference between the final output of the new process and the old process.

Przyznam, że chciałabym, żeby rozwój MTPE poszedł w kierunku “porządna postedycja za porządne stawki albo publikujemy surowe MT”, a nie w stronę dalszego obniżania stawek za PE i podnoszenia oczekiwanej wydajności postedycji, bo zbliżamy się chyba do granicy możliwości człowieka w zakresie przetwarzania informacji; dalej będzie już tylko pozorowanie sprawdzania, nieetycznie nie tylko z powodu przerzucania odpowiedzialności na tłumaczy, ale przede wszystkim ze względu na wprowadzanie konsumentów w błąd, że tłumaczenie jest zgodne merytorycznie z oryginałem i że ktoś za to odpowiada. A ponieważ postedytorami bywamy, a konsumentami jesteśmy – chciałabym jeszcze tylko przepisu, np. normy ISO, który wymusi oznaczanie wszelkich publikowanych tekstów jako “raw MT”, jeśli postedycji nie było, przy czym postedycja powinna być zdefiniowana jako pełna w rozumieniu normy ISO 18587 (“to obtain a product comparable to a product obtained by human translation”), a koncepcja “light PE” należy czym prędzej wyprowadzić za stodołę i zastrzelić.

Wróżenie jakości MT

Industry does not repeat, but it rhymes

Dobry, choć bez wątpienia lanserski wywiad na linii memoQ – ModelFront o prognozowaniu jakości MT, z którego można dowiedzieć się, jak to działa:

  • na podstawie danych z już wykonanych postedycji oblicza się % segmentów niezmienianych – jeśli jest wysoki, to warto przejść do następnego kroku;
  • na podstawie zmian wykonanych w postedycji trenowany jest silnik, który dla nowych segmentów maszynowych szacuje, czy trzeba je będzie poprawiać i jak bardzo;
  • dla każdego projektu i dodanego w nim MT będzie można przewidzieć, czy trzeba postedytować koniecznie i bezwarunkowo, czy też można postedycję odpuścić 🙂

Założeniem ModelFrontu jest wyeliminowanie żmudnej postedycji wszędzie tam, gdzie wnosi ona bardzo mało poprawek (a przy tym w zastosowaniach, gdzie nieuchronne przy tym podejściu, acz nieliczne błędy nie niosą ze sobą wielkiego ryzyka). Dla postedytorów mają pozostać zadania o wysokiej wartości dodanej.

Rozwiązanie ModelFrontu jest dostępne na razie dla kilku TMS-ów (w tym memoQ), ale firma planuje rozszerzanie tej listy.

…Ciekawe, czy takie narzędzia do wróżenia jakości MT będą używane zgodnie z założeniem, czy – niestety – do przycinania stawek za PE zgodnie z zasadą “wy udawajcie że sprawdzacie, my będziemy udawać że płacimy” 🙁

AI w narzędziach CAT?

A teraz szybko, zanim dotrze do nas, że to bez sensu!

Dwa popularne CAT-y reprezentują w tej chwili dwa różne podejścia do AI:

Trados dorobił się wtyczki OpenAI, która działa i konfiguruje się trochę inaczej niż znane już wtyczki MT. Jej niewątpliwą zaletą jest możliwość definiowania własnych zapytań (promptów), które pozwalają generować z ChatGPT tłumaczenia zwracające się do odbiorcy w liczbie pojedynczej, mnogiej albo neutralnie. Aby skorzystać z tej funkcji, trzeba mieć wykupiony dostęp do OpenAI i podać klucz API.

MemoQ wprowadził funkcję AIQE, czyli szacowanie jakości segmentów maszynowych (z dowolnej wtyczki MT) za pomocą dużego modelu językowego. Do wyboru jest TAUS albo ModelFront, do których również trzeba nabyć oddzielne klucze API.

Zaletą obu tych rozwiązań jest wprowadzenie najnowszych technologii językowych do CAT-ów. Wadą – ograniczenie przetwarzania do segmentu, czyli odcięcie jednej z największych zalet, jakie prezentują narzędzia AI oparte na dużych modelach językowych (LLM): potrafią one pracować na dokumencie jako całości, a w każdym razie na sporej jego części.

Ciekawe, kto z producentów CAT-ów pierwszy umożliwi pełniejsze wykorzystanie LLM do pracy na całym tekście, np. w takich zastosowaniach:

  • wychwycenie kluczowej terminologii z tekstu źródłowego;
  • sprawdzenie tekstu źródłowego i zaproponowanie poprawek (gramatyka, spójność, styl);
  • przeredagowanie tekstu wynikowego w zadanym kierunku (formalny/nieformalny, zdania krótkie/długie);
  • automatyczna kontrola jakości tłumaczenia według zadanych parametrów.

O części z tych zastosowań mówią praktycy z branży lokalizacyjnej na webinarze Intento “GPT in Localization“, wspominając też o możliwości generowania tekstu w wielu językach naraz – wszędzie tam, gdzie GPT potrafi wygenerować wystarczająco dobry tekst oryginalny (angielski), a surowe tłumaczenie maszynowe niekoniecznie spełnia wymagania jakościowe.

…Tyle że oczywiście nie da się ufać GPT w 100%, że czegoś nie nazmyśla 🙂

PRZEtłumacze o MT (i trochę AI)

Na zaproszenie firmy Diuna miałam przyjemność wystąpić 11 kwietnia 2023 w odcinku podcastu PRZEtłumacze, w którym Kacper Wawrzak poprowadził rozmowę w kierunku takich zagadnień jak:

  • prawie 100 lat historii tłumaczeń maszynowych
  • nikt nie zmyśla tak pięknie jak sieci neuronowe
  • czy można postedytować i nie oszaleć
  • kto po 3 piwach wieszczył, że za rok tłumacze stracą pracę
  • i oczywiście: czy GPT rozumie więcej niż NMT???

ChatGPT, hype GPT: zasoby

Translation exists when it is more convenient than creating the content from scratch – tak Marco Trombetti odniósł się do kwestii, czy ChatGPT zastąpi tłumaczy, w świetnym wstępie do minikonferencji online “ChatGPT in Localization”, zorganizowanej 1 marca 2023 przez Custom.MT. Artykułów i prelekcji o ChatGPT przybywa lawinowo; dla uporządkowania wiedzy i zastosowań praktycznych zbieram tu odsyłacze, które uważam za przydatne (w danym momencie, bo rzeczy dzieją się szybko!).

OpenAI

Strona OpenAI, gdzie zakłada się konto z dostępem do GPT-3.5 (starsze, szybsze, tańsze) lub GPT-4 (przeciwnie).

GPT w lokalizacji

Porównania tłumaczeń przez GPT z silnikami NMT:

How Does GenAI Compare on a Price Basis?

Different GenAI systems have different pricing models, but CSA Research has serious concerns about the viability and sustainability of current financial models. GenAI providers are currently running their systems at a financial loss in order to bring in customers and build demand that they expect to monetize in the future. Although precise per-word figures are difficult to determine, this strategy shows in our estimates of translation costs using ChatGPT and GPT4 at the published API prices: Chat GPT 3.5 Turbo’s pricing for translation is roughly 1/40 of the price of Google Translate, yet it consumes more energy. GPT-4 ranges from equal in price to about eight times as expensive as Google Translate, depending on the languages and model involved, but it also consumes far more energy. Unless OpenAI can massively improve system optimization – or overcome fundamental laws of physics – these prices will not be sustainable. LSPs or enterprises that build their content strategies on GenAI need to be aware that the financial models cannot last.

Wydarzenia “ChatGPT in Localization”, gdzie na bieżąco omawia się zastosowanie GPT w tłumaczeniach:

A.I. w tłumaczeniach na przykładzie ChatGPT: kurs dla tłumaczy, tłumaczek i biur tłumaczeń

Rozważania o perspektywach AI z grudnia 2022, ale wciąż aktualne 😉

ChatGPT w lokalizacji gier: stan na połowę marca 2023

Ostrożne podejście do GPT z perspektywy TAUS w kwietniu 2023

Inne zastosowania GPT

Chat GPT od zera: kompletny kurs dla początkujących – przykłady użycia AI do nauki i w biznesie

Lance Cummings przygotowuje szkolenie dla pisarek i pisarzy technicznych

Programistycznie

OpenAI GPT-4 API Quick Guide: wprowadzenie do API OpenAI

ChatGPT-translation.py: minimalny kod do tłumaczenia za pomocą ChatGPT

AI, MT, a czy ktoś to czyta…?

Jeśli tekst jest generowany przez AI, to po co MT? Lepiej od razu generować w x językach!

Webinar Intento The Enterprise Machine Translation Playbook 2022/2023 daje wgląd w zastosowanie MT przez duże międzynarodowe firmy, takie jak AstraZeneca, NetApp czy Nike. Najciekawszą częścią są perspektywy na najbliższą przyszłość, dotyczące zastosowania AI poza samym tłumaczeniem (bo np. do tworzenia lub poprawiania treści źródłowych) i poza działem tłumaczeń (również np. w HR czy marketingu).

A więc automatyzacja umożliwia:

  • Poprawianie tekstu źródłowego, np. wymuszanie struktury w dokumentacji (cel – lista kroków).
  • Parafrazowanie maszynowe jako sposób na bardziej jednoznaczne źródło dla MT!
  • A w sumie, skoro AI pisze, to może od razu w wielu językach???

…ale trzeba pamiętać również, że:

  • Tekst napisany/streszczony AI może być dobry dla wyszukiwarek, ale zły do czytania przez ludzi 🙁
  • Wyeliminowanie człowieka nie jest możliwe w krytycznych zastosowaniach (farmacja, medycyna).
  • Gładki tekst czyta się dobrze, ale co z sensem? Postedytor niezmiennie musi patrzeć na źródło (a redakcja tekstu wygenerowanego przez AI musi znać założenia merytoryczne).

Jeśli ktoś nie ma czasu na cały 2-godzinny webinar, to polecam obejrzeć 19-minutowy wstęp, w którym Konstantin Savenkov przedstawia “Ideas that worked in 2022 & Ideas that may work in 2023”, albo przeczytać jego streszczenie. Prywatnie przedkładam rzemieślniczo-słowiańską rzeczowość nad menedżersko-amerykańską płynność wypowiedzi…

MT do komunikacji wewnętrznej

Intento przedstawia model wykorzystania MT jako narzędzia do komunikacji wewnętrznej w firmach. Celem takiego rozwiązania jest ułatwienie globalizacji (co w tym przypadku oznacza swobodne zatrudnianie osób z całego świata), a jednocześnie poprawienie komunikacji między pracownikami i efektywności szkoleń, co wiąże się ze zmniejszeniem liczby błędów i wypadków przy pracy. Z praktyki firm międzynarodowych wynika, że profesjonalne przetłumaczenie 100% materiałów wewnętrznych nie jest możliwe (ani czasowo, ani finansowo) – zatem Intento proponuje wprowadzenie MT tam, gdzie do tej pory królował język firmy-matki (zwykle angielski).

Intento deklaruje łatwe integrowanie swego rozwiązania z systemami istniejącymi w firmie: z jednej strony – bazami wiedzy czy narzędziami do zarządzania (np. Salesforce, Jira…), z drugiej – systemami TMS i narzędziami CAT (XTM, Trados…).

Do oceny jakości tłumaczenia, a w efekcie – do wybierania materiałów, które należy przenieść z poziomu “MT” na poziom “tłumaczenie profesjonalne” – służą w tym modelu dwa czynniki: popularność tłumaczenia danego zasobu (jak często pracownicy sięgają np. po daną stronę w swoim języku) oraz liczba explicite zgłoszonych błędów tłumaczenia.