Microsoft lancierte im Frühjahr einen Twitter-Bot
und nannte ihn, ziemlich einfallslos, «Tay». Die Idee
dahinter: Der Account sollte lockere Gespräche mit
seinem Gegenüber führen.
Für den Klein Report kommentiert Medienexpertin
Dr. Regula Stämpfli. Innerhalb von nur 24 Stunden
tweetete Tay Hassparolen, Nazisprüche und natürlich
Sexismus pur. Wie sehr Tay gewissen Communities
gleicht, zeigte sich auch daran, dass Drogen
glorifiziert wurden. Das Konto musste sofort
deaktiviert werden. KI-Cracks versuchen sich aber
wieder und wieder an trainierbaren Bots. Sie
programmieren offen, das heisst, sie geben nicht für
jede Eventualität den entsprechenden Code ein,
sondern lassen die Programme auf eine Unmenge
Daten los. Letztes Jahr wurde so ein schwarzer Mann
von Flickr als «Ape» getagged.
Den Nerds, die so tun, als wären sie objektive Götter,
sind solche Geschichten natürlich peinlich. Doch
Besserung ist keine in Sicht. Flickr30K wird
regelmässig für solche Software-Trainings eingesetzt
- und ewig grüsst das Murmeltier: Die Bilder werden
automatisch rassistisch, sexistisch, primitiv
menschenfeindlich betitelt. Schwarze Babies werden
durchwegs als «schwarz» bezeichnet, weisse Babies
schlicht nur als «Babies», asiatische Gesichtszüge
machen sofort «Japaner» oder «Chinese», und Frauen
sind «Angestellte», «Sekretärinnen»,
«Untergeordnete» selbst in Bildern, die einfach
Menschen mit und ohne Menstruationshintergrund
gleichberechtigt in einem Büro zeigen.
Eingegeben werden die Daten von digitalen
«Gelegenheitsarbeitern», wie die «Süddeutsche» dies
am 30. Mai 2016 klassenspezifisch formuliert. Im
Dienstag 31.5.2016
Klartext: Digitale Tippser sind rassistische, US-
amerikanische, weisse Männer mit präferiert
sexistischem Hintergrund. Das ist ungefähr so, wie
wenn der Metzger eine komplizierte Herzoperation
durchführt, ohne dass er sich den Titel «Chirurg»
vorher verdient hätte.
Deshalb fordern Wissenschaftler mehr Qualität in den
Trainingsdaten. «Selbstverständlich», kann ich da nur
sagen. Schliesslich sollte auch jede Journalistenschule
ein ABC in Politik, Demokratie und Menschenrechte
anbieten und nicht nur die paar lächerlichen
Staatskundestunden, wie dies meist geschieht.
Bei den Codern ist dies noch wichtiger. Denn
neuronale Netzwerke werden für immer prominentere
Aufgaben eingesetzt. Sie können bald über die
Kreditwürdigkeit, eine Bewerbung, eine Preisvergabe,
einen ganzen Lebenslauf eines Menschen entscheiden.
Da stellt sich schon die Frage: Wollen wir, wenn wir
endlich die Möglichkeit haben, die Welt anders zu
programmieren, wirklich nur Rassismus, Sexismus und
Dummheit pur reproduzieren? Ist die Antwort «Nein»,
braucht es schneller eine Quote für sogenannte
Minderheiten und Frauen in den Portalen und Coding
agencies, als Facebook «Cookies» aktivieren kann.
@laStaempfli
Veröffentlicht im
Regula Stämpfli: Künstliche Intelligenz?
Rassistische Intelligenz! Sexismus inbegriffen
© 4YE