Überall Gendersternchen verstreuen und fertig? Von wegen. Geschlechtergerecht zu texten, das braucht vor allem Kreativität.
Im Internet gibt es zahlreiche Wörterbücher und Tools, die man benutzen kann, um Wörter in einem Text durch geschlechterneutrale Alternativen zu ersetzen: Ärzte durch Ärzt*innen, Studenten durch Studierende und so weiter. Ein Beispiel ist diese App von Fairlanguage.

Auch meine eigene App, Fairslator, bieten bei Übersetzungen von Englisch nach Deutsch eine solche Möglichkeit.

Ist damit die Herausforderung der gendergerechten Sprache erledigt? Überall Gendersternchen automatisiert verstreuen und fertig? Von wegen!
Das Problem mit dem Genderstern, mit dem Genderdoppelpunkt und mit anderen solchen Zeichen ist, dass sie den Text weniger lesbar machen. Sie waren alle ursprünglich typografische Zeichen, normalerweise nicht im Wortinneren zu finden. Andere geschlechterneutrale Neuerfindungen wie Partizipien (Studierende, Teilnehmende) haben teilweise den gleichen Effekt, weil sie ja Neuerfindungen sind: beim Lesen muss man oft erstmal kurz nachdenken, bevor man kapiert, was gemeint ist.
Nicht von ungefähr empfiehlt die Autorin Christine Olderdissen in ihrem Buch Genderleicht nicht mehr als ein Genderstern pro Absatz. Sonst wird der Text schwer zu lesen, die Botschaft wird unklar, der Lesegenuss verschwindet.
Also gut, nicht mehr als ein Genderstern pro Absatz. Und der Rest des Texts? Da muss man sich etwas anderes einfallen lassen. Umdenken. Umformulieren. Zum Beispiel, eine beliebte Strategie ist es, auf Substantive in Bezug zu Menschen ganz zu verzichten und Leute direkt in der zweiten Person anzusprechen: statt Ich lade alle Teilenehmer*innen ein sagen wir lieber Ich lade Sie ein! Ist auch wirksamer so. Clever zu texten, das bedeutet Wege in die Herzen der Leser und Leserinnen zu finden. Das ist bestimmt nichts Neues für Werbetexter und Journalisten und so, also für die, die sich mit Texten beruflich beschäftigen. Gender ist dabei nur eine Dimension von vielen.
Hier lohnt es sich einen Schritt zurück zu nehmen und kurz zu überlegen, warum es eigentlich wünschenswert ist, gendergerecht zu schreiben. Gendergerecht zu schreiben, das bedeutet so zu schreiben, dass man alle Menschen anspricht, die man auch ansprechen möchte. Es bedeutet so zu schreiben, dass man keinem Mensch einen Grund gibt, sich ausgeschlossen zu fühlen.
Dieses Ziel erreicht man nicht, wenn man erstmal einen gender-ungerechten Text schreibt und dann alle problematische Wörter automatisch ersetzen lässt. Damit wird ein Problem gelöst und ein anderes verursacht. Der Text ist jetzt gendergerecht (irgendwie), aber umständlich und schwer zu lesen. Wen spricht das an?
Das Genderstern ist etwas, was man automatisieren kann. Man kann Apps wie Fairlanguage und Fairslator entwickeln, die Wörter durch andere Wörter ersetzen, ohne den Text verstehen zu müssen. Aber das Genderstern sollte immer nur das Mittel der letzten Wahl sein. Das Genderstern sollte immer nur dann zum Einsatz kommen, wenn dem Mensch beim Schreiben nichts Besseres einfällt. Texte werden eigentlich von Menschen geschrieben, und der Mensch selbst muss entscheiden, wie die Leser und Leserinnen am besten anzusprechen sind. Fürs Gendern – wie für jedes gute Texten – braucht’s menschliche Kreativität. Das kann man nicht automatisieren.
Eigentlich wollte ich diesen Artikel als eine Art Entschuldigung schreiben. Eine Entschuldigung dafür, wie robotisch und einfallsarm meine App Fairslator beim Übersetzen den Genderdoppelpunkt einsetzt. Fairslator ist ja nur eine Maschine. Sie als Menschen können sich bestimmt etwas Besseres einfallen lassen!
Es gibt keine Verbindung zwischen Fairlanguage und Fairslator. Die Ähnlichkeit der Namen ist reiner Zufall.
October 2024 —
We were talking about bias in machine translation
at a Translating Europe Workshop organised by the European Commission in Prague
as part of Jeronýmovy dny,
a series of public lectures and seminars on translation and interpreting.
Video here »
December 2023 —
Fairslator presented a workshop on bias in machine translation
at the European Commission's
Directorate-General for Translation,
attended by translation-related staff from all EU institutions.
November 2023 —
Fairslator went to Translating and the Computer,
an annual conference on translation technology in Luxembourg,
to present its brand new API.
Proceedings from this conference are here, our paper starts on page 98.
November 2023 —
We were talking about gender bias, gender rewriting and Fairslator
at the EAFT Summit
in Barcelona where we also launched an exciting spin-off
project there:
Genderbase,
a multilingual database of gender-sensitive terminology.
February 2023 —
We spoke to machinetranslation.com
about bias in machine translation, about Fairslator, and about our vision for “human-assisted machine translation”.
Read the interview here:
Creating an Inclusive AI Future: The Importance of Non-Binary Representation »
October 2022 —
We presented Fairslator at the
Translating and the Computer
(TC44) conference, Europe's main annual event for computer-aided translation, in Luxembourg.
Proceedings from this conference are here,
the paper that describes Fairslator starts on page 90.
Read our impressions from TC44 in this thread on
Twitter
and
Mastodon.
September 2022 —
In her article
Error sources in machine translation: How the algorithm reproduces unwanted gender roles
(German: Fehlerquellen der maschinellen Übersetzung: Wie der Algorithmus ungewollte Rollenbilder reproduziert),
Jasmin Nesbigall of oneword GmbH talks about bias in machine translation
and recommends Fairslator as a step towards more gender fairness.
September 2022 —
Fairslator was presented at the
Text, Speech and Dialogue
(TSD) conference in Brno.
August 2022 —
Translations in London are talking about Fairslator in their blog post
Overcoming gender bias in MT.
They think the technology behind Fairslator could be useful in the translation industry
for faster post-editing of machine-translated texts.
July 2022 —
We presented a paper titled A Taxonomy of Bias-Causing Ambiguities in Machine Translation
at a Workshop on Gender Bias in Natural Language Processing
during the 2022 Annual Conference of the North American Chapter of the Association for Computational Linguistics
in Seattle.
May 2022 —
Slator.com, a website for the translation industry, asked us for a guest post and of course we didn't say no.
Read What You Need to Know About Bias in Machine Translation »