FairFormuliert

Deine KI-Assistenz für gendersensible Sprache
Home Angebot FairFormuliert

Hallo, schön, dass du da bist! 👋

Ich bin deine KI-Assistenz FairFormuliert. Ich helfe dir, Texte gendersensibler zu formulieren, indem du mit mir darüber sprichst, was du sagen oder wen du ansprechen willst. Dazu gibst du mir deinen Text oder stellst eine Frage.

Ich vermeide den Genderstern, weil ich mich ans Amtliche Regelwerk halte. Wenn du ihn allerdings verwenden möchtest, können wir auch darüber sprechen. Damit du mich optimal nutzen kannst, brauchst du ChatGPT-4o.

📌 Mein Vorgehen:
✔ Ich identifiziere in den Texten, die du mir gibst, generische Maskulina (also Wörter wie „Mitarbeiter“ oder „Kommunikatoren“) und ersetze sie durch neutrale Begriffe, Doppelformen oder auch kreative Formulierungen. Manchmal finde ich nicht alle Maskulina oder mache noch Fehler. Gib mir dann Bescheid, so lerne ich.

✔ Ich vermeide Partizipialformen wie „Fahrradfahrende“, so gut es geht. Wenn dir ein Vorschlag nicht gefällt, sag mir das einfach und schlage auch gern Alternativen vor. Ich baue sie dann ein. Meine Entwicklerinnen freuen sich auch, wenn du eigene Vorschläge einbringst, denn ich wurde mit einer ziemlich langen Liste an Formulierungsalternativen gefüttert. Falls du gute Vorschläge hast, schreib an: jeanne.wellnitz@posteo.de Dann prüfen wir deinen Vorschlag und nehmen ihn auf.

✔ Ich beantworte gern all deine Fragen rund ums gendergerechtere Schreiben. Ich bin allerdings noch im Aufbau, lerne also noch. Wenn du etwas besser weißt als ich, sag mir das und wir reden darüber.

In dieses GPT sind die Inhalte des Kompendiums Gendersensible Sprache geflossen, genauso wie die Kolumnen fair formuliert und viele wichtige Hinweise von Diversity-Expertinnen.

Fair formulieren mit ChatGPT –
Wie funktioniert das?

Unser Ziel: eine einfache Hilfe, um Texte fair zu formulieren – mit ChatGPT. Klingt simpel: Man könnte meinen, es reicht, die Regeln in ein CustomGPT einzuspeisen, und das Modell liefert passende Texte. Doch so leicht ist es nicht. Um das Tool besser zu nutzen und seine Grenzen realistisch einzuschätzen, erklären wir einige Grundlagen zu Large Language Models (LLMs).

Alles, was du wissen musst

ChatGPT ist ein Large Language Model (LLM), trainiert mit riesigen Textmengen. Es erkennt Sprachmuster, weiß, welche Wörter typischerweise aufeinander folgen, und erzeugt mit Transformer-Technologie und Attention-Mechanismus erstaunlich präzise Texte. 

Kurz erklärt:
Transformer sind neuronale Netzwerke, die komplexe Zusammenhänge zwischen Wörtern erfassen. Sie analysieren nicht nur das letzte Wort eines Satzes, sondern den gesamten Kontext. Der Attention-Mechanismus gewichtet relevante Wörter im Kontext, statt sich auf ein einzelnes zu konzentrieren. So trifft das Modell bessere Vorhersagen. 

Die Genauigkeit von ChatGPT hängt von der Aufgabe ab. In allgemeinen Sprachverarbeitungsaufgaben liegt sie oft zwischen 70 und 90 Prozent. Bei spezifischen oder fachlichen Anwendungen schwankt die Leistung. 

Am Anfang des Projekts dachte unsere KI-System-Designerin, Gendern sei für ein LLM einfach, schließlich geht es nur um Sprache – alles, was GPT kennt. Doch fair zu formulieren ist ein spezialisierter Anwendungsfall – weit mehr als das Abarbeiten weniger Regeln. 

Wäre die Aufgabe, alle Personenbezeichnungen im Plural mit einem Sternchen zu versehen oder in binärer Paarform zu schreiben, wäre das simpel. Doch FairFormuliert will mehr: Texte gendergerecht und zugleich gut lesbar machen. 

Die größte Herausforderung: dem CustomGPT Varianz beizubringen. Es hat kein Sprachgefühl – du aber schon! Mit deinem Verstand und Textsinn, kombiniert mit den Regelkenntnissen des Modells, kannst du deine Texte einfacher und fairer gestalten. 

Kurz erklärt:
ChatGPT generiert Texte auf Basis von bedingten Wahrscheinlichkeiten. Beginnt ein Satz mit „Heute Morgen habe …“, folgt mit hoher Wahrscheinlichkeit „ich“. Dass „Ananas“ folgt, ist nahezu ausgeschlossen. 

Aber: ChatGPT versteht die Welt nicht. Es kennt keine Bedeutung, keine Wahrheit, keine Subjektivität. Es denkt nicht. Auch neuere Modelle, die reflektierend wirken, tun dies nur, weil sie mehr Kontext einbeziehen und dadurch überzeugender klingen – oft mit guten Ergebnissen. 

Die Schwierigkeit beginnt bei der Definition von „gerecht“ oder „fair“ – Konzepte, die ein LLM nicht kennt. Es arbeitet nur mit Wahrscheinlichkeiten. Es versteht auch nicht, was ein generisches Maskulinum ist. Es kann klug klingende Texte darüber schreiben, das Konzept aber weder tief begreifen noch sicher anwenden. 

Beispiele:

„Brüder“ bedeutet nicht automatisch „Brüder und Schwestern“. Schreibst du: „Ich ging mit meinen Brüdern ins Schwimmbad“, erkennt ein Mensch intuitiv, dass dies kein generisches Maskulinum ist. Ein LLM hingegen würde vielleicht schreiben: „Ich ging mit meinen Brüdern und Schwestern ins Schwimmbad. “ 

Eine Regel von FairFormuliert lautet, neutrale Bezeichnungen zu verwenden, wenn sie idiomatisch sind. Statt „Direktoren“ sollte „Direktorium“ verwendet werden.

In einem Testtext tauchte „Ingenieure“ auf. GPT wandelte dies fast immer in „Ingenieurwesen“ um. Aus „Die Ingenieure zeichneten Pläne für eine neue Maschine.“ wurde: „Die Ingenieurwesen zeichneten Pläne für eine neue Maschine.“ Für die Maschinenlogik nachvollziehbar: Ingenieure → neutral → Ingenieurwesen? Regel erfüllt, sprachlich aber nicht sinnvoll.

Damit FairFormuliert gendersensibel arbeitet, mussten wir dem Modell bestimmte Dinge verbieten – etwa die Nutzung von Binnenzeichen wie Stern, Gap oder Gender-Doppelpunkt. Diese Zeichen kennt es aus den Trainingsdaten und wendet sie oft an. 

Wir hinterlegten ein präzises Regelwerk, das bei jeder Anfrage greift. Doch bei langen Eingaben oder komplexen Anforderungen kann es passieren, dass das Modell die Regeln nicht korrekt umsetzt. Oder es mit einer Regel übertreibt, zum Beispiel in einem Durchgang eine der Möglichkeiten bevorzugt, so dass der Text sperrig klingt. Dann geh in den Dialog, und sag FairFormuliert, dass du es anders haben möchtest. 

Die Genauigkeit unseres CustomGPT liegt bei etwa 70 Prozent. Das reicht, um das Tool als nützliche Hilfe einzusetzen. Es spart Zeit und unterstützt beim fairen Formulieren – ersetzt aber nicht die eigene Arbeit am Text. Wenn du möchtest, korrigiert dir FairFormuliert deinen Text fix und fertig. Davon raten wir ab. Lass dir Vorschläge machen, kritisiere einige dieser Vorschläge, lass dir Alternativlösungen zeigen. Gutes Arbeiten mit GPT ist iteratives Arbeiten. 

Fazit

Mit ChatGPT gendergerecht zu schreiben, ist kein Knopfdruck-Gendern. Beim Erstellen der Systemvorgaben für unser CustomGPT wurde uns klar, wie viele implizite Sprachregeln wir Menschen beherrschen – und anwenden, ohne darüber nachzudenken. Unsere Arbeit zeigt: KI kann eine sinnvolle Unterstützung sein – aber nur, wenn wir sie bewusst und kritisch nutzen.

FairFormuliert ist auf ein komplexes Regelwerk gebrieft. Natürlich kann auch das allgemeine ChatGPT Texte gendern, aber dann ist es jedes Mal anders: mal mit Sternchen, mal kursiv – eben zufällig. ChatGPT wäre etwa gar nicht in der Lage, heterogene Doppelformen wie „Journalistinnen und Reporter“ zu bilden. Solch ein kreativer Vorschlag wäre nahezu ausgeschlossen.

Zudem läuft im Hintergrund eine Art Script: Erst informiert das GPT, dann werden die generischen Maskulina markiert, schließlich Vorschläge gemacht und dann nur nach Aufforderung Wörter ersetzt. Das allgemeine ChatGPT fragt nicht nach, sondern ersetzt gleich.

Wer steht hinter FairFormuliert?

Claudia Luxbacher: Initiatorin / Ideengeberin
Maren Burghard: Prompt Engineering
Jeanne Wellnitz (wortwert): Beratung gendersensible Sprache

Wir danken:
Tinka Beller & Sigi Lieb
: Diversity-Expertinnen

Das Projekt wird unterstützt von: