Warum fragt der Übersetzer eigentlich nicht, was ich meine?
Stell dir vor, du bist DeepL und jemand hat dich gebeten, den Satz I am a good student aus Englisch nach Deutsch zu übersetzen. Wie übersetzt du das? Ich bin ein guter Student, oder ich bin eine gute Studentin? Als Maschine hast du keine Ahnung, ob sich unter dem englischen Pronomen I ein Mann oder eine Frau verbirgt. Du bist eine künstliche Intelligenz, also entscheidest du dich für die wahrscheinlichstere Variante, was vermutlich die männliche ist.
Oder nehmen wir einen anderen Satz: please sit down. Wie übersetzt du das? Setzen Sie sich, setz dich, oder setzt euch? Als Maschine weißt du nicht, ob der Satz für eine Person gemeint ist oder mehrere, und ob die Teilnehmer sich im Deutschen duzen oder siezen würden. Also wählst du das aus, was dir am wahrschenlichsten vorkommt, und das ist eher die Sie-Variante.
In den beiden Fällen wäre es besser, wenn die Maschine den Benutzer fragte, was er oder sie tatsächlich meint. Die meisten maschinellen Übersetzer sind aber nicht in der Lage, Fragen zu stellen. Das einzige, das sie können, ist das zu liefern, was in ihren Trainingsdaten am häufigsten vorkommt. Dass der Benutzer vielleicht etwas völlig anderes im Sinne hatte, ist ihnen egal.
Mich hat es schon immer genervt, dass maschinelle Übersetzer keine Fragen stellen. Mein idealer Übersetzer würde erkennen, dass wir uns in einer Zweifelssituation befinden, und mich fragen, was genau ich meine – und erst dann die passende Übersetzung liefern.
Es hat mich so lange genervt, bis ich selbst so einen Übersetzer gebastelt habe: Fairslator. Um es besser auszudrücken: Fairslator ist kein Übersetzer, er ist eher ein Plug-in für jeden beliebigen Übersetzer. Fairslator analysiert die Übersetzungen, erkennt Zweifelssituationen automatisch und stellt wenn nötig Fragen.
Was passiert also, wenn du Fairslator darum bittest, I am a good student oder please sit down nach Deutsch zu übersetzen? Erstmal musst du auswählen, von welchem Dienst du es übersetzen möchtest: DeepL, Google Translate oder Microsoft Translator. Fairslator redet hinter den Kulissen mit dem Dienst, den du ausgewählt hast, und bekommt von dort die Übersetzung. Als zweiter Schritt analysiert Fairslator die zwei Sätze (das englische Original plus die deutsche Übersetzung) und versucht herauszufinden, ob dort irgendeine Zweifelssituation vorkommt, wie zum Beispiel Mann/Frau oder du/Sie/ihr. Wenn nicht, dann zeigt Fairslator dir die Übersetzung einfach. Wenn ja, dann zeigt Fairslator nicht nur die Übersetzung, sondern auch ein Menü, wo du auswählen kannst, was genau du meinst: wer den Satz sagt (Mann oder Frau), wem er gesagt wird (einer Person oder mehreren, per du oder per Sie), und so weiter. Je nachdem, wie du die Auswahl änderst, ändert sich auch die Übersetzung.
Fairslator ist mein Beitrag dazu, die maschinelle Übersetzung ein bisschen unter die Kontrolle des Menschen zu bringen. In jeder menschlicher Sprache gibt es mehrdeutige Sätze, die man nicht übersetzen kann, ohne nachzufragen, was genau damit gemeint wird. Es gibt Zweifelsfälle, wo keine künstliche Intelligenz, egal wie klug, den beabsichtigten Sinn erraten kann. Doch das hält die herkömmlichen Übersetzer wie DeepL und Google Translate nicht davon ab, es trotzdem zu versuchen! Ich denke, das ist der falsche Weg. Der einzige Weg ist: den Menschen zu fragen. Wie Fairslator.
October 2024 —
We were talking about bias in machine translation
at a Translating Europe Workshop organised by the European Commission in Prague
as part of Jeronýmovy dny,
a series of public lectures and seminars on translation and interpreting.
Video here »
December 2023 —
Fairslator presented a workshop on bias in machine translation
at the European Commission's
Directorate-General for Translation,
attended by translation-related staff from all EU institutions.
November 2023 —
Fairslator went to Translating and the Computer,
an annual conference on translation technology in Luxembourg,
to present its brand new API.
Proceedings from this conference are here, our paper starts on page 98.
November 2023 —
We were talking about gender bias, gender rewriting and Fairslator
at the EAFT Summit
in Barcelona where we also launched an exciting spin-off
project there:
Genderbase,
a multilingual database of gender-sensitive terminology.
February 2023 —
We spoke to machinetranslation.com
about bias in machine translation, about Fairslator, and about our vision for “human-assisted machine translation”.
Read the interview here:
Creating an Inclusive AI Future: The Importance of Non-Binary Representation »
October 2022 —
We presented Fairslator at the
Translating and the Computer
(TC44) conference, Europe's main annual event for computer-aided translation, in Luxembourg.
Proceedings from this conference are here,
the paper that describes Fairslator starts on page 90.
Read our impressions from TC44 in this thread on
Twitter
and
Mastodon.
September 2022 —
In her article
Error sources in machine translation: How the algorithm reproduces unwanted gender roles
(German: Fehlerquellen der maschinellen Übersetzung: Wie der Algorithmus ungewollte Rollenbilder reproduziert),
Jasmin Nesbigall of oneword GmbH talks about bias in machine translation
and recommends Fairslator as a step towards more gender fairness.
September 2022 —
Fairslator was presented at the
Text, Speech and Dialogue
(TSD) conference in Brno.
August 2022 —
Translations in London are talking about Fairslator in their blog post
Overcoming gender bias in MT.
They think the technology behind Fairslator could be useful in the translation industry
for faster post-editing of machine-translated texts.
July 2022 —
We presented a paper titled A Taxonomy of Bias-Causing Ambiguities in Machine Translation
at a Workshop on Gender Bias in Natural Language Processing
during the 2022 Annual Conference of the North American Chapter of the Association for Computational Linguistics
in Seattle.
May 2022 —
Slator.com, a website for the translation industry, asked us for a guest post and of course we didn't say no.
Read What You Need to Know About Bias in Machine Translation »