Microsoft lancierte im Frühjahr einen Twitter-Bot und nannte ihn, ziemlich einfallslos, «Tay». Die Idee dahinter: Der Account sollte lockere Gespräche mit seinem Gegenüber führen. Für den Klein Report kommentiert Medienexpertin Dr. Regula Stämpfli. Innerhalb von nur 24 Stunden tweetete Tay Hassparolen, Nazisprüche und natürlich Sexismus pur. Wie sehr Tay gewissen Communities gleicht, zeigte sich auch daran, dass Drogen glorifiziert wurden. Das Konto musste sofort deaktiviert werden. KI-Cracks versuchen sich aber wieder und wieder an trainierbaren Bots. Sie programmieren offen, das heisst, sie geben nicht für jede Eventualität den entsprechenden Code ein, sondern lassen die Programme auf eine Unmenge Daten los. Letztes Jahr wurde so ein schwarzer Mann von Flickr als «Ape» getagged. Den Nerds, die so tun, als wären sie objektive Götter, sind solche Geschichten natürlich peinlich. Doch Besserung ist keine in Sicht. Flickr30K wird regelmässig für solche Software-Trainings eingesetzt - und ewig grüsst das Murmeltier: Die Bilder werden automatisch rassistisch, sexistisch, primitiv menschenfeindlich betitelt. Schwarze Babies werden durchwegs als «schwarz» bezeichnet, weisse Babies schlicht nur als «Babies», asiatische Gesichtszüge machen sofort «Japaner» oder «Chinese», und Frauen sind «Angestellte», «Sekretärinnen», «Untergeordnete» selbst in Bildern, die einfach Menschen mit und ohne Menstruationshintergrund gleichberechtigt in einem Büro zeigen. Eingegeben werden die Daten von digitalen «Gelegenheitsarbeitern», wie die «Süddeutsche» dies am 30. Mai 2016 klassenspezifisch formuliert. Im
Dienstag 31.5.2016
Klartext: Digitale Tippser sind rassistische, US- amerikanische, weisse Männer mit präferiert sexistischem Hintergrund. Das ist ungefähr so, wie wenn der Metzger eine komplizierte Herzoperation durchführt, ohne dass er sich den Titel «Chirurg» vorher verdient hätte. Deshalb fordern Wissenschaftler mehr Qualität in den Trainingsdaten. «Selbstverständlich», kann ich da nur sagen. Schliesslich sollte auch jede Journalistenschule ein ABC in Politik, Demokratie und Menschenrechte anbieten und nicht nur die paar lächerlichen Staatskundestunden, wie dies meist geschieht. Bei den Codern ist dies noch wichtiger. Denn neuronale Netzwerke werden für immer prominentere Aufgaben eingesetzt. Sie können bald über die Kreditwürdigkeit, eine Bewerbung, eine Preisvergabe, einen ganzen Lebenslauf eines Menschen entscheiden. Da stellt sich schon die Frage: Wollen wir, wenn wir endlich die Möglichkeit haben, die Welt anders zu programmieren, wirklich nur Rassismus, Sexismus und Dummheit pur reproduzieren? Ist die Antwort «Nein», braucht es schneller eine Quote für sogenannte Minderheiten und Frauen in den Portalen und Coding agencies, als Facebook «Cookies» aktivieren kann.
die medienkritik die medienkritik
@laStaempfli
Veröffentlicht im
Regula Stämpfli: Künstliche Intelligenz? Rassistische Intelligenz! Sexismus inbegriffen
© 4YE