Proč se překladače nikdy neptají, jak to myslíme?
Představ si, že jseš stroj, který překládá – třeba Google Translate nebo DeepL – a někdo po tobě chce, abys přeložil z angličtiny do češtiny větu I am a good student. Jak to přeložíš? Jako já jsem dobrý student, nebo já jsem dobrá studentka? Jakožto stroj nemáš ponětí, jestli se za tím anglickým zájmenem I skrývá v téhle větě muž, nebo žena. Ty jseš umělá inteligence, tak se prostě rozhodneš pro tu nejpravděpodobnější variantu, což je nejspíš ta mužská.
Nebo vezměme jinou větu: please sit down. Přeložíš to jako posaďte se, nebo posaď se? Jako stroj nevíš, jestli je věta určená jedné osobě, nebo několika a jestli by si ti lidé v češtině vykali, nebo tykali. Vybereš tedy to, co ti přijde nejvíc pravděpodobné, nejvíc obvyklé – asi tu variantu s vy, že ano.
V obou případech by bylo lepší, kdyby se stroj uživatele zeptal, jak to vlastně myslí. Strojové překladače ale neumí klást otázky. Jediné, co umí, je vyprodukovat to, nejčastěji viděly v datech, ze kterých se to překládání strojově naučily. Že uživatel měl možná na mysli něco úplně jiného, to je jim jedno.
Mně vždycky trochu lezlo na nervy, že strojové překladače se na nic neptají. Můj ideální překladač by dokázal rozeznat, že něco není jednoznačné, a zeptal by se mě, co přesně mám na mysli. Teprve potom by vydal překlad.
Tak dlouho mi to lezlo na nervy, až jsem sám takový překladač vyrobil: Fairslator. Lépe řečeno, Fairslator není překladač, je to spíše plug-in pro jakýkoliv jiný překladač. Fairslator vezme výstup ze strojového překladu, prozkoumá ho, automaticky rozpozná nejasnosti a v případě potřeby se zeptá.
Jak to tedy funguje, když požádáš Fairslator, aby ti přeložil I am a good student nebo sit down please do češtiny? Nejprve si musíš vybrat, kterou službou si to chceš nechat přeložit: DeepL, Google Translate nebo Microsoft Translator. Fairslator se s touto službou v zákulisí spojí a získá od ní překlad. Jako druhý krok Fairslator prozkoumá obě věty (anglický originál plus český překlad) a pokusí se zjistit, zda se tam nenachází nějaká nejasnost, nějaká možnost volby, třeba mezi mužem a ženou nebo mezi vy a ty. Pokud ne, tak ti prostě ukáže překlad a je ho hotovo. Pokud ano, zobrazí ti Fairslator nejen překlad, ale také nabídku, kde si můžeš vybrat, co přesně máš na mysli: kdo tu větu říká (muž, nebo žena), komu je určena (jedné osobě, nebo několika a pokud jedné, zda si tykáme, nebo vykáme) a tak dále. Podle toho, co vybereš, se pozmění i překlad.
Fairslator je můj pokus dát člověku kontrolu nad strojovým překladem. V každém lidském jazyce existují nejednoznačné věty, které jdou přeložit do druhého jazyka jen tehdy, když se doptáme, co přesně se jimi myslí. Jsou situace, kdy ani ta nejchytřejší umělá inteligence nedokáže odhadnout, co má člověk na mysli. Překladače jako Google Translate a DeepL se o to pokouší i přesto, ale tudy cesta nevede. Jediná správná cesta je prostě se zeptat. Jako Fairslator.
October 2024 —
We were talking about bias in machine translation
at a Translating Europe Workshop organised by the European Commission in Prague
as part of Jeronýmovy dny,
a series of public lectures and seminars on translation and interpreting.
Video here »
December 2023 —
Fairslator presented a workshop on bias in machine translation
at the European Commission's
Directorate-General for Translation,
attended by translation-related staff from all EU institutions.
November 2023 —
Fairslator went to Translating and the Computer,
an annual conference on translation technology in Luxembourg,
to present its brand new API.
Proceedings from this conference are here, our paper starts on page 98.
November 2023 —
We were talking about gender bias, gender rewriting and Fairslator
at the EAFT Summit
in Barcelona where we also launched an exciting spin-off
project there:
Genderbase,
a multilingual database of gender-sensitive terminology.
February 2023 —
We spoke to machinetranslation.com
about bias in machine translation, about Fairslator, and about our vision for “human-assisted machine translation”.
Read the interview here:
Creating an Inclusive AI Future: The Importance of Non-Binary Representation »
October 2022 —
We presented Fairslator at the
Translating and the Computer
(TC44) conference, Europe's main annual event for computer-aided translation, in Luxembourg.
Proceedings from this conference are here,
the paper that describes Fairslator starts on page 90.
Read our impressions from TC44 in this thread on
Twitter
and
Mastodon.
September 2022 —
In her article
Error sources in machine translation: How the algorithm reproduces unwanted gender roles
(German: Fehlerquellen der maschinellen Übersetzung: Wie der Algorithmus ungewollte Rollenbilder reproduziert),
Jasmin Nesbigall of oneword GmbH talks about bias in machine translation
and recommends Fairslator as a step towards more gender fairness.
September 2022 —
Fairslator was presented at the
Text, Speech and Dialogue
(TSD) conference in Brno.
August 2022 —
Translations in London are talking about Fairslator in their blog post
Overcoming gender bias in MT.
They think the technology behind Fairslator could be useful in the translation industry
for faster post-editing of machine-translated texts.
July 2022 —
We presented a paper titled A Taxonomy of Bias-Causing Ambiguities in Machine Translation
at a Workshop on Gender Bias in Natural Language Processing
during the 2022 Annual Conference of the North American Chapter of the Association for Computational Linguistics
in Seattle.
May 2022 —
Slator.com, a website for the translation industry, asked us for a guest post and of course we didn't say no.
Read What You Need to Know About Bias in Machine Translation »