- Eine Koalition von Menschenrechtsorganisationen hat rechtliche Schritte gegen die französische Regierung eingeleitet, um diskriminierende Algorithmen zu stoppen. Diese Algorithmen sollen Menschen mit Behinderungen und alleinerziehende Mütter benachteiligen. Es ist das erste Mal, dass ein öffentlicher Algorithmus in Frankreich rechtlich angefochten wird. Der CNAF-Algorithmus bewertet Menschen für die Wahrscheinlichkeit unberechtigter Leistungen, ohne den Quellcode offenzulegen. Solche Systeme werden ein wichtiger Testfall für zukünftige EU-Richtlinien und soziale Scoring-Diskussionen.
Eine Koalition von Menschenrechtsorganisationen hat rechtliche Schritte gegen die französische Regierung eingeleitet, um den Einsatz von Algorithmen zur Identifizierung von Fehlberechnungen zu stoppen. Diese Algorithmen, die seit den 2010er Jahren im Einsatz sind, sollen gegen Anti-Diskriminierungsgesetze verstoßen, indem sie Menschen mit Behinderungen und alleinerziehende Mütter benachteiligen. Zu diesen Gruppen gehören unter anderem La Quadrature du Net und Amnesty International. Laut Valérie Pras von der Gruppe Collectif Changer de Cap ist dies das erste Mal, dass ein öffentlicher Algorithmus in Frankreich rechtlich angefochten wird. Ihr Ziel ist es, solche Algorithmen verbieten zu lassen.
Algorithmische Vorurteile
Die französische Familienkasse, CNAF, verarbeitet die Daten von über 30 Millionen Menschen, die staatliche Unterstützung erhalten. Ein Algorithmus bewertet jede Person mit einem Score zwischen 0 und 1, um zu schätzen, wie wahrscheinlich es ist, dass sie unberechtigt Leistungen beziehen. Zahlreiche europäische Länder setzen ähnliche Systeme ein. Menschen mit hohen Risiken können intensiven Prüfungen unterzogen werden, oft mit Suspendierung ihrer Bezüge. Die CNAF hat den Quellcode des Modells nicht öffentlich gemacht, was Bedenken über diskriminierende Praktiken schürt. La Quadrature du Net behauptet, das Modell benachteilige insbesondere Menschen mit Behinderungen und Alleinerziehende, da es sie als höheres Risiko einstuft.
Auswirkungen auf betroffene Gruppen
Das Problem veranschaulicht mehr als nur technische Herausforderungen. Algorithmen, die soziale Leistungen überwachen sollen, ziehen bei Risikoersparnissen klare Grenzen. Soizic Pénicaud von der Sciences Po Paris betont, dass die Anwendung solcher Systeme im Sozialwesen mit mehr Risiken als Vorteilen verbunden ist. Die Auswirkungen solcher Systeme reichen weit über Frankreich hinaus und werden zu einem frühen Testfall für kommende EU-Richtlinien. Solche Algorithmen könnten als Form des sogenannten sozialen Scorings interpretiert werden, obwohl Behörden dem oft widersprechen. Vollständige Transparenz und verantwortungsvolle Nutzung sind von entscheidender Bedeutung, um die Rechte vulnerabler Gruppen zu gewährleisten.