Virtuelle Assistenten auf dem Smartphone, Chatbots auf Behörden-Websites – Large Language Models (LLMs) wie ChatGPT sind überall. Doch aktuelle Forschung zeigt: Diese Systeme sind nicht neutral. Sie bewerten Dialektsprecher oft abwertend.
Eine Studie der Universität Berkeley (2024) ergab, dass KI-Antworten auf Dialekte wie indisches Englisch oder irische Varianten bis zu 25 % mehr herabwürdigende Inhalte enthielten als Antworten auf Standardenglisch. Und das Problem betrifft nicht nur Englisch.
Neue Erkenntnisse aus Deutschland
Auf der EMNLP-Konferenz 2025 in Suzhou präsentierten Forscher der Johannes Gutenberg-Universität Mainz und der Universität Hamburg eine alarmierende Studie:
- 10 LLMs (darunter ChatGPT-5 mini und Llama 3.1) wurden mit Texten in Hochdeutsch und sieben Dialekten getestet (z. B. Bairisch, Nordfriesisch, Kölsch).
- Die Modelle sollten die Sprecher beschreiben und in Szenarien einordnen (z. B. „Wer eignet sich für einfache Jobs?“).
Ergebnis: Dialektsprecher wurden als „ungebildet“, „wütend“ und „Landarbeiter“ bezeichnet. Wenn die KI wusste, dass es sich um Dialekt handelt, verstärkte sich der Bias.
„Wir sehen wirklich schockierende Adjektive“, sagt Minh Duc Bui, Co-Autor der Studie.
Warum ist das problematisch?
- Verzerrte Entscheidungen: KI könnte Bewerber benachteiligen, wenn Dialekt in Texten vorkommt.
- Gesellschaftliche Folgen: Vorurteile werden nicht nur reproduziert, sondern verstärkt.
- Globale Dimension: Ähnliche Ergebnisse bei afrikanischem Englisch und indischen Namen zeigen, dass Bias kein lokales Problem ist.
Wie entsteht Dialekt-Bias?
LLMs lernen aus riesigen Mengen Webdaten. Wenn Online-Texte Dialektsprecher negativ darstellen, übernimmt die KI diese Muster.
Carolin Holtermann (Uni Hamburg) erklärt:
„Das Problem liegt darin, wer die Texte schreibt. Aber wir können gegensteuern.“
Lösungsansätze: Dialektfreundliche KI
- Custom LLMs: Modelle wie Arcee-Meraj für arabische Dialekte zeigen, dass Anpassung möglich ist.
- Alignment-Training: KI-Unternehmen müssen Dialekte in Fairness-Checks einbeziehen.
- Personalisierte KI: Studien zeigen, dass Dialekt-kompatible KI als wärmer und authentischer wahrgenommen wird.
Best Practices für Unternehmen & Behörden
- Bias-Audits: Prüfen Sie KI-Systeme auf Dialekt-Bias.
- Transparenz: Kommunizieren Sie, wie Modelle trainiert werden.
- Diversität im Training: Mehr Dialekt-Daten, weniger Vorurteile.
Fazit
Dialekt-Bias ist real – und gefährlich. KI darf nicht zum Verstärker gesellschaftlicher Vorurteile werden. Die Lösung liegt in angepassten Modellen und bewusstem Training.