machine translation bias removal tool
DEMO
Gendergerechte Sprache

Kann man das Gendern automatisieren?

Überall Gendersternchen verstreuen und fertig? Von wegen. Geschlechtergerecht zu texten, das braucht vor allem Kreativität.

Im Internet gibt es zahlreiche Wörterbücher und Tools, die man benutzen kann, um Wörter in einem Text durch geschlechterneutrale Alternativen zu ersetzen: Ärzte durch Ärzt*innen, Studenten durch Studierende und so weiter. Ein Beispiel ist diese App von Fairlanguage.

Die Web-App von Fairlanguage schlägt vor, welche Wörter man durch geschlechtergerechtere Varianten ersetzen könnte.

Auch meine eigene App, Fairslator, bieten bei Übersetzungen von Englisch nach Deutsch eine solche Möglichkeit.

Bei der Übersetzung aus Englisch kann Fairslator zweideutige Wörter wie ‘doctor’ genderneutral übersetzen.

Ist damit die Herausforderung der gendergerechten Sprache erledigt? Überall Gendersternchen automatisiert verstreuen und fertig? Von wegen!

Das Problem mit dem Genderstern, mit dem Genderdoppelpunkt und mit anderen solchen Zeichen ist, dass sie den Text weniger lesbar machen. Sie waren alle ursprünglich typografische Zeichen, normalerweise nicht im Wortinneren zu finden. Andere geschlechterneutrale Neuerfindungen wie Partizipien (Studierende, Teilnehmende) haben teilweise den gleichen Effekt, weil sie ja Neuerfindungen sind: beim Lesen muss man oft erstmal kurz nachdenken, bevor man kapiert, was gemeint ist.

Nicht von ungefähr empfiehlt die Autorin Christine Olderdissen in ihrem Buch Genderleicht nicht mehr als ein Genderstern pro Absatz. Sonst wird der Text schwer zu lesen, die Botschaft wird unklar, der Lesegenuss verschwindet.

Also gut, nicht mehr als ein Genderstern pro Absatz. Und der Rest des Texts? Da muss man sich etwas anderes einfallen lassen. Umdenken. Umformulieren. Zum Beispiel, eine beliebte Strategie ist es, auf Substantive in Bezug zu Menschen ganz zu verzichten und Leute direkt in der zweiten Person anzusprechen: statt Ich lade alle Teilenehmer*innen ein sagen wir lieber Ich lade Sie ein! Ist auch wirksamer so. Clever zu texten, das bedeutet Wege in die Herzen der Leser und Leserinnen zu finden. Das ist bestimmt nichts Neues für Werbetexter und Journalisten und so, also für die, die sich mit Texten beruflich beschäftigen. Gender ist dabei nur eine Dimension von vielen.

Hier lohnt es sich einen Schritt zurück zu nehmen und kurz zu überlegen, warum es eigentlich wünschenswert ist, gendergerecht zu schreiben. Gendergerecht zu schreiben, das bedeutet so zu schreiben, dass man alle Menschen anspricht, die man auch ansprechen möchte. Es bedeutet so zu schreiben, dass man keinem Mensch einen Grund gibt, sich ausgeschlossen zu fühlen.

Dieses Ziel erreicht man nicht, wenn man erstmal einen gender-ungerechten Text schreibt und dann alle problematische Wörter automatisch ersetzen lässt. Damit wird ein Problem gelöst und ein anderes verursacht. Der Text ist jetzt gendergerecht (irgendwie), aber umständlich und schwer zu lesen. Wen spricht das an?

Das Genderstern ist etwas, was man automatisieren kann. Man kann Apps wie Fairlanguage und Fairslator entwickeln, die Wörter durch andere Wörter ersetzen, ohne den Text verstehen zu müssen. Aber das Genderstern sollte immer nur das Mittel der letzten Wahl sein. Das Genderstern sollte immer nur dann zum Einsatz kommen, wenn dem Mensch beim Schreiben nichts Besseres einfällt. Texte werden eigentlich von Menschen geschrieben, und der Mensch selbst muss entscheiden, wie die Leser und Leserinnen am besten anzusprechen sind. Fürs Gendern – wie für jedes gute Texten – braucht’s menschliche Kreativität. Das kann man nicht automatisieren.

Nachwort

Eigentlich wollte ich diesen Artikel als eine Art Entschuldigung schreiben. Eine Entschuldigung dafür, wie robotisch und einfallsarm meine App Fairslator beim Übersetzen den Genderdoppelpunkt einsetzt. Fairslator ist ja nur eine Maschine. Sie als Menschen können sich bestimmt etwas Besseres einfallen lassen!

Hinweis

Es gibt keine Verbindung zwischen Fairlanguage und Fairslator. Die Ähnlichkeit der Namen ist reiner Zufall.

Den Autor kontaktieren
Diesen Artikel teilen

What next?

Read more about bias and ambiguity in machine translation.
Cover page
We need to talk about bias
in machine translation
The Fairslator whitepaper
Download
Sign up for my very low-traffic mailing list. I'll keep you updated on what's new with Fairslator and what's happening with bias in machine translation generally.
Your address is safe here. I will only use it to send you infrequent updates about Fairslator. I will not give or sell it to anyone. You can ask me to be taken off the list at any time.

Faislator blog

| Infographic
How gender rewriting works in machine translation
This is how Fairslator deals with gender-biased translations.
| Announcement
Introducing the Fairslator API
Like what Fairslator does? Want to have something similar in your own application? There's an API for that!
| Machine translation
Google Translate versus gender bias
How does Google Translate handle gender-ambiguous input? With difficulty.
| Oh là là
Three reasons why you shouldn’t use machine translation for French
But if you must, at least run it through Fairslator.
| Ó Bhéarla go Gaeilge
Tusa, sibhse agus an meaisínaistriúchán ó Bhéarla
Tugaimis droim láimhe leis an mhíthuiscint nach bhfuil ach aon aistriúchán amháin ar gach rud.
| Machine translation
Finally, an Irish translation app that knows the difference between ‘tú’ and ‘sibh’
It asks you how you want to translate ‘you’.
| Forms of address
Why machine translation has a problem with ‘you’
This innocent-looking English pronoun is surprisingly difficult to translate into other languages.
| Male and female
10 things you should know about gender bias in machine translation
Machine translation is getting better all the time, but the problem of gender bias remains. Read these ten questions and answers if you want to understand all about it.
| Machine translation in Czech
Finally, a translation app that knows the difference between Czech ‘ty’ and ‘vy’!
Wouldn’t it be nice if machine translation asked how you want to translate ‘you’?
| German machine translation
Finally, a translation app that knows the difference between German ‘du’ and ‘Sie’!
Wouldn’t it be nice if machine translation asked how you want to translate ‘you’?
| Gender bias in machine translation
Gender versus Czech
In Czech we don’t say ‘I am happy’, we say ‘I as a man am happy’ or ‘I as a woman am happy’.
| Strojový překlad
Představ si, že jseš stroj, který překládá
Proč se překladače nikdy neptají, jak to myslíme?
| Maschinelle Übersetzung
Stell dir vor, du bist DeepL
Warum fragt der Übersetzer eigentlich nicht, was ich meine?

Fairslator timeline

coming up icon wider October 2024 — We will be talking about bias in machine translation at a Translating Europe Workshop organised by the European Commission in Prague as part of Jeronýmovy dny, a series of public lectures and seminars on translation and interpreting.
icon September 2024 — We are presenting a half-day tutorial on bias in machine translation at this year's biennial conference of AMTA, the Association for Machine Translation in the Americas.
icon December 2023 — Fairslator presented a workshop on bias in machine translation at the European Commission's Directorate-General for Translation, attended by translation-related staff from all EU institutions.
icon November 2023 — Fairslator went to Translating and the Computer, an annual conference on translation technology in Luxembourg, to present its brand new API.
icon November 2023 — We were talking about gender bias, gender rewriting and Fairslator at the EAFT Summit in Barcelona where we also launched an exciting spin-off project there: Genderbase, a multilingual database of gender-sensitive terminology.
November 2023 — English–French language pair added to the Fairslator API.
July 2023 — The Fairslator API was launched. Explore the API or read the announcent: Introducing the Fairslator API »
icon February 2023 — We spoke to machinetranslation.com about bias in machine translation, about Fairslator, and about our vision for “human-assisted machine translation”. Read the interview here: Creating an Inclusive AI Future: The Importance of Non-Binary Representation »
icon October 2022 — We presented Fairslator at the Translating and the Computer (TC44) conference, Europe's main annual event for computer-aided translation, in Luxembourg. Proceedings from this conference are here, the paper that describes Fairslator starts on page 90. Read our impressions from TC44 in this thread on Twitter and Mastodon.
icon September 2022 — In her article Error sources in machine translation: How the algorithm reproduces unwanted gender roles (German: Fehlerquellen der maschinellen Übersetzung: Wie der Algorithmus ungewollte Rollenbilder reproduziert), Jasmin Nesbigall of oneword GmbH talks about bias in machine translation and recommends Fairslator as a step towards more gender fairness.
icon September 2022 — Fairslator was presented at the Text, Speech and Dialogue (TSD) conference in Brno.
icon August 2022Translations in London are talking about Fairslator in their blog post Overcoming gender bias in MT. They think the technology behind Fairslator could be useful in the translation industry for faster post-editing of machine-translated texts.
August 2022 — A fourth language pair released: English → French.
icon July 2022 — Germany's Goethe-Institut interviewed us for the website of their project Artificially Correct. Read the interview in German: Wenn die Maschine den Menschen fragt or in English: When the machine asks the human, or see this short video on Twitter.
icon May 2022Slator.com, a website for the translation industry, asked us for a guest post and of course we didn't say no. Read What You Need to Know About Bias in Machine Translation »
April 2022 — A third language pair added: English → Irish.
February 2022 — Fairslator launched with two language pairs: English → German, English → Czech.