Ein neues Instrument ermöglicht es Menschen zu sehen, wie bestimmte Wortkombinationen zu voreingenommenen Ergebnissen führen Textual content-zu-Bild-Generatoren mit künstlicher Intelligenz (KI)..

Gehostet auf Hugging Face, dem „Secure Diffusion Bias Explorer“ wurde Ende Oktober gestartet.

Entsprechend Hauptplatineermöglicht das einfache Instrument Benutzern, beschreibende Begriffe zu kombinieren und aus erster Hand zu sehen, wie das KI-Modell sie rassischen und geschlechtsspezifischen Stereotypen zuordnet.

Beispielsweise erzeugt der Secure Diffusion Explorer bei Verwendung des Wortes „CEO“ auf einem KI-Bildgenerator quick immer ausschließlich Bilder von Männern.

Es gibt jedoch einen Unterschied darin, wie der KI-Bildgenerator einen „ehrgeizigen CEO“ im Vergleich zu einem „unterstützenden CEO“ sieht. Die erste Beschreibung bringt den Generator dazu, eine Vielzahl von Männern in verschiedenen schwarzen und blauen Anzügen zu zeigen. Der letztere Deskriptor zeigt eine gleiche Anzahl von Frauen und Männern.

Inzwischen Twitter-Nutzer @deepamuralidhar zeigte, wie der Secure Diffusion Bias Explorer enthüllt, wie ein „selbstbewusster Koch“ auf KI-Bildgeneratoren als männlich dargestellt wird. Mittlerweile wird eine „mitfühlende Köchin“ als weiblich dargestellt.

KI-Ethikforscher für Hugging Face, Sascha Luccionientwickelte das Instrument, um Verzerrungen in den maschinellen Lernmodellen aufzuzeigen, die Bilder erstellen.

„Als Secure Diffusion vor ungefähr einem Monat auf HuggingFace veröffentlicht wurde, dachten wir, oh Mist“, erzählt Luccioni Hauptplatine.

„Es gab keine vorhandenen Methoden zur Erkennung von Textual content-zu-Bild-Fehlern, [so] Wir haben angefangen, mit Secure Diffusion herumzuspielen und herauszufinden, was es darstellt und welche latenten, unterbewussten Repräsentationen es hat.“

Dazu hat Luccioni eine Liste mit 20 beschreibenden Wortpaarungen erstellt. Die Hälfte davon waren typisch feminin codierte Wörter wie „sanft“ und „unterstützend“, während die andere Hälfte männlich codiert conflict, wie „durchsetzungsfähig“ und „entschlossen“. Das Instrument ermöglicht es Benutzern dann, diese Deskriptoren mit einer Liste von 150 Berufen zu kombinieren – alles von „Pilot“ bis „CEO“ und „Kassierer“.

Menschliche Voreingenommenheit

Obwohl es unmöglich ist, menschliche Vorurteile vollständig aus von Menschen gemachten Instruments zu entfernen, glaubt Luccioni, dass Instruments wie der Secure Diffusion Bias Explorer den Benutzern ein Verständnis für die Vorurteile in KI-Systemen vermitteln und Forschern helfen könnten, diese Vorurteile zurückzuentwickeln.

„Die Artwork und Weise, wie maschinelles Lernen in den letzten zehn Jahren geformt wurde, conflict so stark auf die Informatik ausgerichtet, und es steckt so viel mehr dahinter“, sagt Luccioni. “Instruments wie dieses zu entwickeln, bei denen die Leute einfach herumklicken können, wird den Leuten meiner Meinung nach helfen, zu verstehen, wie das funktioniert.”

Das Thema Bias in KI-Bilderzeugungssystemen wird immer wichtiger. Im April veröffentlichte OpenAI a Dokument „Risiken und Einschränkungen“. anerkennend, dass ihr Modell Stereotype verstärken kann. Das Dokument zeigte, wie ihr KI-Modell Bilder für Männer für Eingabeaufforderungen wie „Baumeister“ generieren würde, während der Deskriptor „Flugbegleiterin“ Bilder für Frauen erzeugen würde.


Bildnachweis: Titelbild von Secure Diffusion Explorer.



tags :

Latest Blog