Im digitalen Dating-Zeitalter spielen Algorithmen eine zentrale Rolle dabei, potenzielle Partner vorzuschlagen. Diese Algorithmen basieren auf zahlreichen Daten und Nutzerpräferenzen. Doch sie sind fehleranfällig. Ein zunehmend diskutiertes Problem ist der Algorithmus-Bias. Dieser Bias führt zu Verzerrungen und Ungleichheiten innerhalb der algorithmischen Systeme. Zum Beispiel fand eine Studie von OkCupid zwischen 2009 und 2014 heraus, dass besonders ostasiatisch gelesene Männer und schwarze Frauen benachteiligt werden.
Weiße Personen hingegen hatten die besten Chancen, Matches zu finden. Solche Ergebnisse stellen die Fairness und Objektivität dieser digitalen Vermittler infrage. Sie zeigen auf, wie tief die Problematik reicht.
Die Algorithmen neigen dazu, bestimmte Gruppen systematisch zu bevorzugen oder zu benachteiligen. Dies beeinflusst nicht nur die Partnersuche einzelner, sondern wirkt sich auch auf die gesellschaftliche Wahrnehmung aus. Ein weiteres Beispiel: Eine Untersuchung von OkCupid aus 2009 ergab, dass 40 % bis 54 % der weiß gelesenen Nutzer vorziehen, ebenfalls Weiße zu daten.
Nur 20 % der schwarzen Nutzer und People of Color (PoC) bevorzugen es, andere Schwarze oder PoC zu daten. Diese Präferenzen können durch die Algorithmen verstärkt werden. Dadurch werden existierende Vorurteile und Diskriminierungen nicht nur aufrechterhalten, sondern teilweise sogar intensiviert.
Was ist Algorithmus-Bias?
Algorithmus-Bias entsteht, wenn Algorithmen bestimmte Gruppen oder Merkmale ungerecht behandeln. Diese Ungerechtigkeiten haben ihre Wurzeln in verschiedensten Bereichen. Dazu zählen unausgewogene Datensätze, subjektive Entscheidungen bei der Programmierung und historische Vorurteile. Letztere sind oft tief in den Algorithmen verankert.
2015 identifizierte ein Google-Algorithmus Menschen mit dunkler Haut fälschlicherweise als Gorillas. Ein schockierendes Beispiel für Algorithmus-Bias. Ein weiterer Fall ereignete sich im Oktober 2018. Amazons Rekrutierungsalgorithmus benachteiligte Bewerbungen, in denen „Frauen“ oder „Frauen College“ erwähnt wurden.
Über 15 Millionen Ingenieure haben Google’s Word2Vec, eine Wort-Bibliothek, importiert. Diese Bibliothek enthält historische Vorurteile. Außerdem kann es bei maschinellem Lernen zu einer sogenannten Stichtags-Voreingenommenheit kommen. Dies passiert, wenn die Trainingsdaten bestimmte Bevölkerungsgruppen, etwa hellhäutige Personen, überrepräsentieren.
Algorithmische Vorurteile widerspiegeln häufig die impliziten Werte derjenigen, die sie programmiert haben. Auch diejenigen, die Daten sammeln, auswählen und verwenden, tragen zu diesem Phänomen bei. Wenn Datenwissenschaftler subjektive Zielvariablen definieren, kann dies unbeabsichtigt Diskriminierung zur Folge haben.
Wie beeinflusst Algorithmus-Bias die Partnersuche auf Dating-Apps?
Der Einfluss von Algorithmus-Bias auf die Partnersuche in Dating-Apps ist nicht zu unterschätzen. Er erstreckt sich über mehrere Bereiche, von Fragen der Beliebtheit und Attraktivität bis hin zu tiefergehenden Problemen wie Rassismus und Eigeninteressen der Plattformen. Diese Einflüsse sind oft subtil, aber tiefgreifend.
Beliebtheit und Attraktivität
Bei Matching-Algorithmen haben Beliebtheit und Attraktivität großen Einfluss. Plattformen wie OKCupid kalibrieren ihren Algorithmus mit Nutzerfragen und Bewertungen, um einen Kompatibilitätsquotienten zu erstellen. Dadurch werden häufig jene Nutzer*innen bevorzugt, die als „attraktiver“ gelten. Dies führt zu einer Verzerrung in den Empfehlungen.
Zu den wichtigen Einflussfaktoren gehören:
- Visuelle Präsentation: Bildbasierte Profile dominieren auf vielen Dating-Apps.
- Zyklische Nutzung: Nutzer*innen kommen oft nach Frustrationen und Kontolöschungen zurück.
Rassismus und sexuelle Präferenzen
Rassismus und voreingenommene sexuelle Präferenzen sind große Probleme. Studien, unter anderem von Thompson (2018), weisen nach, dass weibliche Nutzer*innen oft unerwünschte Nachrichten erhalten. Der Algorithmus kann diese negativen Erfahrungen nicht immer filtern. Dies führt zu Frustration und wiederholter Nutzung.
Studien von Anderson et al. (2020) und Bleize et al. (2023) dokumentieren sowohl positive als auch negative Erlebnisse. Sie reichen von Freude und Hoffnung bis zu Enttäuschung und Wut.
Interessenkonflikte der Plattformen
Interessenkonflikte spielen eine bedeutende Rolle. Viele Plattformen zeigen vorrangig heterosexuelle Monogamie als Erfolg. Dies spiegelt nur einen Teil der Erfahrungen wider. Die Darstellung kann die Vielfalt der Matches beschränken.
Bitkom (2022) zufolge verwendet jeder dritte Internetnutzer*in über 16 in Deutschland das Internet für die Partnersuche. Dadurch steigt die Menge potenzieller Partner*innen verschiedener Hintergründe. Algorithmus-Bias kann jedoch diese Vielfalt stark begrenzen.
Faktoren | Einfluss auf Dating-Apps |
---|---|
Beliebtheit und Attraktivität | Visuelle Dominanz der Profile, Matching-Algorithmus |
Rassismus und sexuelle Präferenzen | Voreingenommene Vorschläge, negative Interaktionen |
Interessenkonflikte der Plattformen | Einseitige Erfolgsdarstellungen, reduzierte Vielfalt |
Fazit
Der Bias in Algorithmen von Dating-Apps spiegelt komplexe gesellschaftliche Probleme wie Rassismus und Geschlechterdiskriminierung wider. Dies betrifft nicht nur die Partnersuche, sondern zeigt auch in Beispielen wie Amazons Rekrutierungssystem oder Microsofts Chatbot Tay, dass KI-Systeme zu systematischen Verzerrungen neigen. Solche Systeme können spezifische Gruppen benachteiligen oder bevorzugen.
Das GIGO-Prinzip (Garbage In – Garbage Out) ist ein Hauptproblem. Es bedeutet, dass die Qualität der Algorithmen direkt von den eingegebenen Daten abhängt. Wenn diese Daten bestehende Vorurteile enthalten, übertragen sich diese automatisch auf die Ergebnisse der Algorithmen. Daher ist die sorgfältige Auswahl und Bereinigung von Datenquellen von größter Bedeutung.
Regulatorische Vorgaben, wie die DSGVO und die europäische KI-Verordnung, zielen darauf ab, Diskriminierung zu verhindern und Fairness in KI-Anwendungen zu fördern. Trotz dieser Bemühungen bleibt das Herausforderungen bestehen, die Entscheidungsprozesse von Algorithmen transparent zu machen, bekannt als das „Blackbox-Problem“. Interdisziplinäre Zusammenarbeit und fortlaufende Tests sind essentiell, um Bias zu erkennen und zu mindern.
Die Implementierung von Human-in-the-Loop-Systemen und Counterfactual Fairness kann dazu beitragen, algorithmische Entscheidungen gerechter zu gestalten. Auch wenn es eine Herausforderung ist, Chancengleichheit zu gewährleisten und Ungleichheiten zu reduzieren, spielt die ethische Entwicklung von KI-Systemen eine wichtige Rolle. Es gilt zu akzeptieren, dass KI wahrscheinlich nie völlig neutral sein wird, da sie menschliche Vorurteile widerspiegeln kann. Ein fortlaufender Prozess der Überprüfung und Anpassung dieser Systeme ist daher unerlässlich.