Wird es in Zukunft noch Mediatorinnen und Mediatoren geben oder macht das ein Bot? Ist der Bot neutral? Wie ist das mit dem Bias?
Die Verzerrung oder auch das Bias oder systematischer Fehler einer Schätzfunktion ist in der Schätztheorie, einem Teilgebiet der mathematischen Statistik, diejenige Kennzahl oder Eigenschaft einer Schätzfunktion, welche die systematische Über- oder Unterschätzung der Schätzfunktion quantifiziert. Allgemein auch Vorurteile genannt.
Hat der Bot diese Fehleinschätzung, die durch Vorurteile entsteht möglicherweise nicht?
Die KI hat grundlegende Schwachstellen.
- Die KI hat systemimmanente Probleme, sie halluziniert, wenn sie die Antwort auf eine Frage nicht weiß.
- Wenige marktbeherrschende Unternehmen trainieren die KI und geben die Inhalte durch die verwendeten Trainigsdaten vor.
- Die KI neigt dazu, bereits bestehende gesellschaftliche Diskriminierungsverhältnisse zu reproduzieren. Wenn die Daten, mit denen eine KI trainiert wird, z. B. bereits einen sexistischen oder rassistischen Bias haben, wirkt sich dieser auch auf die Funktionen der KI aus.
So wurde z. B. im November 2025 bekannt, dass KI, die Dialekte hört bzw. liest, oft unfair urteilt, indem sie Vorurteile gegenüber Menschen mit Dialekt zum Ausdruck bringt und Eigenschaften wie „ungebildet“ und „unfreundlich“ auswählt.
Deshalb können wir die oben gestellte Frage sehr deutlich beantworten.
KI kann den menschlichen Mediator nicht ersetzen.