- Margaret Mitchell ist eine führende Figur im Testen von generativen KI-Tools auf Voreingenommenheit und gründete das Ethical AI Team bei Google. Das von ihr mitgestaltete Dataset SHADES ist flexibel und umfasst menschliche Übersetzungen, um eine breitere Vielfalt von Sprachen und Kulturen zu testen. SHADES entstand aus einer internationalen Anstrengung und wird unterstützt von Institutionen weltweit und Hugging Face. Das Dataset erlaubt eine tiefere Evaluierung gesellschaftlicher Auswirkungen im Vergleich zu herkömmlichen Modellen. Die Begrenzung auf Englisch kann weiterhin weltweit schädliche Stereotypen verstärken.
Margaret Mitchell ist eine Pionierin im Testen von generativen KI-Tools auf Voreingenommenheit. Sie gründete das Ethical AI Team bei Google neben einer anderen bekannten Forscherin, bevor beide später das Unternehmen verließen. Heute fungiert sie als Leiterin der KI-Ethik bei einem Software-Startup, das sich auf Open-Source-Tools spezialisiert hat. Es geht um ein von ihr mitgestaltetes Dataset, dessen Ziel es ist, wie KI-Modelle weiterhin Stereotypen fortsetzen. Anders als die meisten Bemühungen zur Voreingenommenheitsminderung, die Englisch priorisieren, ist dieses Dataset flexibel und umfasst menschliche Übersetzungen zum Testen einer breiteren Vielfalt von Sprachen und Kulturen. Ihnen ist sicherlich bewusst, dass KI häufig eine Verzerrung von Menschenansichten darstellt, aber es ist möglich, dass Ihnen nicht bewusst ist, wie sich diese Probleme noch verschärfen können, wenn die Ausgaben nicht mehr auf Englisch erzeugt werden.
Einführung in SHADES
Unser Gespräch mit Mitchell wurde für Länge und Klarheit bearbeitet. Reece Rogers fragte Mitchell, was das neue Dataset namens SHADES tun soll und wie es entstanden ist. Das Dataset wurde entworfen, um bei der Evaluierung und Analyse zu helfen, und entstand aus einer massiven internationalen Anstrengung vor vier Jahren, bei der Forscher weltweit zusammenkamen, um das erste offene KI-Modell zu trainieren. „Vollständig offen“ bedeutet, dass sowohl die Trainingsdaten als auch das Modell offen zugänglich sind. Hugging Face spielte eine wichtige Rolle, indem es den Fortschritt unterstützte und Ressourcen bereitstellte. Institutionen weltweit bezahlten Personen, während sie an Teilen dieses Projekts arbeiteten. Das Modell, das veröffentlicht wurde, markierte den Beginn der Idee von „offener Wissenschaft“.
Vielfalt der Kulturen und Sprachen
Eine Vielzahl von Arbeitsgruppen konzentrierte sich auf unterschiedliche Aspekte, und eine der Arbeitsgruppen, an der Mitchell beteiligt war, beschäftigte sich mit Evaluierungen. Es stellte sich heraus, dass gesellschaftliche Auswirkungen gut zu evaluieren weitaus komplexer war als das Modelltraining. Infolgedessen entstand die Idee eines Bewertungs-Datasets, genannt SHADES, inspiriert von einem vorherigen Forschungsprojekt, bei dem vergleichbare Elemente mit veränderlichen Eigenschaften untersucht wurden. Während Gender Shades sich auf Geschlecht und Hautfarbe konzentrierte, befasste sich ihre Arbeit mit verschiedenen Arten von Voreingenommenheit und dem Austausch von Identitätsmerkmalen wie unterschiedlichen Geschlechtern oder Nationen.
Es gibt viele Ressourcen und Evaluierungen auf Englisch. Zwar existieren einige mehrsprachige Ressourcen, die für Voreingenommenheit relevant sind, jedoch basieren sie oft auf maschinellen Übersetzungen anstelle von tatsächlichen Übersetzungen von Personen, die die Sprache sprechen und in der Kultur verwurzelt sind. Diese Personen können die Art der Voreingenommenheiten nachvollziehen und die relevantesten Übersetzungen für das anstreben, was erreicht werden soll.
Hinterfragen von Stereotypen
Die Modelle werden länder- und kulturenübergreifend eingesetzt, daher korrespondiert eine Minderung englischer Voreingenommenheit nicht mit der Minderung der in anderen Kulturen relevanten Voreingenommenheiten, in denen die Modelle verwendet werden. Dies birgt das Risiko, innerhalb bestimmter Regionen sehr problematische Stereotypen zu propagieren, da sie auf verschiedenen Sprachen trainiert werden. Damit sind Trainingsdaten gemeint. Es folgen Feinabstimmungen und Evaluierungen. Die Trainingsdaten könnten weltweit problematische Stereotypen enthalten, dennoch richten sich die Techniken zur Voreingenommenheitsminderung möglicherweise nur auf Englisch. Insbesondere neigen sie dazu, nordamerikanisch-zentriert zu sein. Wenngleich Sie Voreingenommenheit für englischsprachige Nutzer in den USA minimieren könnten, gilt dies nicht weltweit. Sie riskieren weiterhin, weltweit wirklich schädliche Ansichten zu verstärken, weil Sie sich nur auf Englisch konzentriert haben.