Wenn Daten verzerrt sind
Künstliche Intelligenz (KI) prägt zunehmend Entscheidungsprozesse in Wirtschaft, Verwaltung und Gesellschaft. Doch die Leistungsfähigkeit moderner KI-Systeme hängt maßgeblich von der Qualität und Ausgewogenheit ihrer Daten ab.
KI ist längst mehr als ein technisches Schlagwort – sie beeinflusst heutzutage Entscheidungen in der Personalgewinnung, der Finanzbranche, der medizinischen Diagnostik und im öffentlichen Sektor.
Mit der zunehmenden Automatisierung steigt auch die Verantwortung:
KI-Systeme müssen fair, transparent und allgemeingültig agieren.
Dabei ist Bias (Verzerrung) eine zentrale Herausforderung, um dieses Ziel zu erreichen. Bias bezeichnet eine systematische Abweichung, die zu unfairen, diskriminierenden oder falschen Ergebnissen führen kann.
Ein Beispiel für Bias zeigt sich in Testsystemen des autonomen Fahrens. Verschmutzte Straßenschilder, wurden deutlich schlechter erkannt als saubere Schilder. Dies ist dem geschuldet, dass dreckige Schilder in den Trainingsdaten viel seltener vorkamen.
Ein weiteres Beispiel sind Empfehlungssysteme, die Vorschläge für Musik oder Filme geben. Diese bevorzugen Inhalte, die bereits eine hohe Reichweite erzielt haben. Dadurch verstärkt sich deren Sichtbarkeit, während andere mit möglicherweise gleichwertigen oder besseren Inhalten im Hintergrund bleiben.
Diese Fallbeispiele zeigen, dass Bias in Daten keine technische Randnotiz ist. Es handelt sich um eine zentrale Herausforderung für den korrekten und verantwortungsvollen Einsatz von KI.