Gendern mit ChatGPT - Liebchen+Liebchen

Gendern mit ChatGPT

Lesezeit ca.
Minuten

Gendern mit ChatGPT

Viele Unternehmen wollen mit gendersensibler Sprache zu mehr Diversität und Geschlechtergerechtigkeit beitragen. Kann ChatGPT beim Gendern unterstützen? Oder hat die KI einen Gender Bias?

Gendergerechte Sprache ist ein zentraler Baustein, um als Unternehmen soziale Verantwortung zu zeigen. Viele Kund:innen wählen inzwischen lieber Unternehmen, die mit gendergerechtem Kommunizieren Sensibilität für Inklusion und Diversität signalisieren – B2C genauso wie B2B. Wie verlässlich ist ChatGPT bei der Erstellung gendergerechter Texte? Hier sind unsere Antworten – nicht von ChatGPT, versteht sich.

Wie gendert ChatGPT?

ChatGPT antwortet standardmäßig im generischen Maskulinum. Wenn Sie den Bot jedoch explizit auffordern, zu gendern, liefert er auch gendergerechte Formulierungen. Dabei gilt: Je konkreter die Anweisung, desto besser das Ergebnis.

Auf die allgemein formulierte Frage hin, eine Werbeanzeige zu schreiben, in der das Gendern berücksichtigt werden soll, antwortet ChatGPT:

Mit unserer fortschrittlichen Technologie können Laborleiterinnen und Laborleiter, Wissenschaftlerinnen und Wissenschaftler sowie Expertinnen und Experten in der Umweltforschung die Testzeit für Schadstoffanalysen erheblich verkürzen. Dadurch könenn Sie nicht nur Ressourcen schonen, sondern auch schneller auf wichtige Ergebnisse zugreifen.

Ohne genaue Anweisung verwendet der Chatbot stur Doppelnennungen. Das ist nicht der beste Rat für schöne Texte. Die KI braucht also eine genaue Vorstellung davon, wie gegendert werden soll. Schreibt man der KI das im Prompt vor, sieht das Ergebnis etwas besser aus.

Prompt:
Schreib das bitte nochmal und nutze dabei unterschiedliche Genderschreibweisen, unter anderem den Doppelpunkt. Am Ende soll der Text gut lesbar sein.

Antwort:

Mit unserer fortschrittlichen Technologie können Laborleiter:innen, Wissenschaftlerinnen und Wissenschaftler, Expert:innen in der Umweltforschung die Testzeit für Schadstoffanalysen erheblich verkürzen. Dadurch könenn Sie nicht nur Ressourcen schonen, sondern auch schneller auf wichtige Ergebnisse zugreifen.

Schon besser, aber noch nicht gut. ChatGPT lässt sich also schwer dazu bringen, wirklich intelligente Formulierungen zu verwenden, sodass sich der Text flüssig liest. Schöner wären etwas freiere Formulierungen, die die Aufzählung der Personengruppen gänzlich umgehen, wie etwa so: „Sparen Sie wertvolle Zeit für Forschung mit unserer modernen Technologie zur Schadstoffanalyse.“ Auch neutrale Zusammenfassungen wie „Forschungspersonal“ sind eine elegante Variante, genderneutral zu formulieren.

Wie geschlechtergerecht sind die Trainingsdaten?

Geschlechtergerechte Formulierungen sind aber nur die Spitze des Eisbergs. Gendersensible Sprache beginnt viel früher, nämlich bei der Auswahl der Inhalte. Im Fall von ChatGPT ist also die Frage, wie geschlechtergerecht seine Trainingsdaten sind. GPT-3.5 wurde unter anderem mit Texten aus dem Internet trainiert. Es ist schwierig, eine allgemeine Aussage darüber zu treffen, wie valide und gendersensibel die aus dem Netz verwendeten Informationen sind. Noch schwieriger ist die Beurteilung der kostenpflichtigen Version GPT-4, dessen Trainingsdaten nicht öffentlich zugänglich sind. Aber auch hier stammt ein Großteil der Trainingsdaten aus dem Internet.

Ein deutlicher Gender-Bias ist jedoch in beiden Versionen sehr wahrscheinlich. Die Gefahr ist, dass Probleme wie die Darstellung von Meinungen als Fakten, real wirkende, aber nicht echte Bilder und Videos, sowie die strukturelle Benachteiligung bestimmter Bevölkerungsgruppen verstärkt werden. Generative KIs wie ChatGPT, die mit nicht-repräsentativen Daten trainiert werden, reproduzieren bestehende Ungleichheiten. Das kann negative Folgen haben, wie Rebekka Endler z.B. in ihrem Buch „Das Patriarchat der Dinge“ aufzeigt. Werden Frauen in Datenanalysen systematisch benachteiligt, haben sie auch in der realen Welt später schlechtere Karten wie etwa bei Geräten oder Medikamenten, die auf männliche Körper abgestimmt sind. Es ist also Vorsicht bei der Kuration der Inhalte geboten, denn die KI reproduziert häufig formulierte Positionen. Das sorgt dafür, dass Meinungen z.B. von Minderheiten auch stärker marginalisiert werden.

Train the Trainer: Wer trainiert die Trainingsdaten?

Wer schon einmal mit ChatGPT gesprochen hat, weiß, dass sich die KI meist zunächst weigert, offen sexistische oder rassistische Inhalte zu produzieren. Manche sehen darin sogar einen Hang zu links-liberalen Haltungen. Im Hintergrund der KI steckt eine Menge menschlicher Arbeit. Denn die gesamte Datenmenge wird verschlagwortet, kategorisiert und aussortiert – von Menschen. Um offen rassistische und sexistische Äußerungen in den Antworten von ChatGPT zu vermeiden, hat OpenAI zur Klassifikation der Daten die Outsourcing-Firma Sana beauftragt. Diese wiederum beschäftigte Menschen in Kenia damit, offensichtlich anstößige Inhalte auszusortieren. Abgesehen vom geringen Lohn und den schlechten Arbeitsbedingungen der Beschäftigten, hilft diese Methode jedoch nicht, strukturelle Ungleichheiten im Internet abzuschaffen – und so einen Geschlechter-Bias im Output von ChatGPT zu verhindern.

Fazit: Ist ChatGPT beim Gendern eine Hilfe?

ChatGPT kann eine gute Stütze im Schreiballtag sein, um Anregungen für geschlechtergerechte Formulierungen zu bekommen. Mit dem richtigen Prompt erhält man akzeptable, gegenderte Texte. Möchte man aber ernsthaft gendersensible Sprache im Unternehmen umsetzen, ist ChatGPT noch nicht verlässlich. Texte, die ChatGPT ausgibt, bedürfen immer einer Überarbeitung – auch mit Blick auf gendersensible Sprache.

Sie wollen mehr über KI erfahren? In unseren LaikMe Workshops erfahren Sie, was die neuesten Tools können und wie Sie sie geschickt einsetzen.

Sind Sie neugierig geworden und wollen sofort mehr über KI erfahren, zum Beispiel im Videobereich?

Zurück

Interesse geweckt?

Fragen, Feedback oder Themenwünsche?
Sprechen Sie uns an!