Rassistische KI?

22. September 2019; Kategorien: Digitalisierung

Künstliche Intelligenzen (KI), machen das Leben einfacher. Sie werden immer besser und sie können immer mehr. Doch für Frauen*, Ausländer*innen und Menschen mit Migrationshintergrund sind sie eine Gefahr.

Künstliche Intelligenzen (KI), machen das Leben einfacher. Sie werden immer besser und sie können immer mehr. Doch für Frauen*, Ausländer*innen und Menschen mit Migrationshintergrund sind sie eine Gefahr. Denn sie sind sexistisch, rassistisch und vermutlich auch homophob.

Aber wieso ist das so? Und was ist daran so schlimm? Um diese Frage zu beantworten, müssen wir als Erstes schauen, wie KI funktionieren. Es gibt verschiedene Modelle und nicht alle funktionieren gleich. Das Grundprinzip ist bei den meisten ähnlich: Ein künstliches neuronales Netzwerk wird mit Datensätzen gefüttert und trainiert. Man hat zum Beispiel viele Bilder von handschriftlichen Zahlen, denen der abgebildete Zahlenwert im Vorhinein zugeordnet wurde. Daraus kann die KI lernen, Zahlen aus Bildern zu erkennen.

Eine KI denkt also nicht, sie wendet lediglich bekannte Muster auf neue Eingaben an. Sind die Trainingsdaten schlecht oder falsch, beeinflusst dies das Resultat des Trainings. Und deshalb sind KI heute auch rassistisch und sexistisch. Sie werden mit sexistischen und rassistischen Daten trainiert.

Hier liegt das Problem, denn im Gegensatz zu Menschen können KI ihre Vorurteile nicht reflektieren. Aber von Computern erwarten wir, dass sie streng logisch, objektiv und rational entscheiden. Der Rassismus und der Sexismus wird also quasi durch den Einsatz von KI legitimiert und unsichtbar gemacht. Denn ein Computer kann ja nicht sexistisch sein.

Dass sie es doch sind, sieht man gut, wenn es um Sprache geht. Damit KI Sprache verstehen, brauchen sie eine mathematische Repräsentation davon. Dazu werden Wörter in einem mehrdimensionalen Raum als Vektoren dargestellt. Wörter, die näher zusammen sind, haben ähnliche Interpretationen. Und weil die KI mit Texten trainiert werden, die von uns geschrieben wurden, übernehmen sie unsere Rollenbilder und Vorurteile.

Gefährlich wird das vor allem dann, wenn die KI einschneidende Entscheide fällen. KI schauen das geschehene an und versuchen daraus, Muster auf neue Eingaben anzuwenden. Eine KI sieht, dass Menschen mit -ic im Nachnamen weniger häufig eingestellt werden. Sie wird dies in ihre Entscheide einfliessen lassen. Wenn ein Schönheitswettbewerb eine KI einsetzt, die mit heller Haut trainiert wurde, sind unter den Gewinnerinnen vor allem Frauen* mit heller Haut.

KI werden künftig immer mehr Entscheide fällen und in mehr Bereichen eingesetzt werden. Damit werden diese Risiken immer grösser und die Konsequenzen für die betroffenen immer heftiger. Wenn die Medizin oder sogar die Polizei auf KI setzt, werden diese Vorurteile immer mehr zum Problem.

Doch es muss nicht zwingend alles schlecht sein. KI können gerade für die von Sexismus und Rassismus betroffenen eine Chance sein. Denn KI sind brutal transparent. Die trainierten Netzwerke kann man auswerten und schauen, welcher Faktor das Ergebnis wie beeinflusst hat. Eine KI kann also nicht lügen. Wenn eine KI eine Person nicht eingestellt hat, weil sie einen Migrationshintergrund hat, kann man das herausfinden und auch beweisen. Und nicht nur das: Man kann beweisen, dass der Datensatz, mit dem die KI trainiert wurde, auf diskriminierenden Entscheiden basiert. Die KI wird nur dann rassistisch, wenn sie mit rassistischen Daten trainiert wurde. Damit können diskriminierende Entscheide, die heute von Menschen gefällt werden, rückwirkend bewiesen werden.

Damit das passieren kann, sind ein paar Dinge notwendig. Zum einen müssen Entscheide, die durch KI getroffen wurden auch deklariert werden. Zum anderen braucht es Mittel und Wege, sich gegen diese Entscheide zu wehren. Es muss möglich sein, die KI und ihre Entscheide auf diskriminierende Muster zu überprüfen. Viele Firmen behalten ihre KI aus wettbewerblichen Gründen zurück. Deshalb braucht es eine unabhängige Stelle, die die KI überprüft. Es braucht eine Ombudsstelle für Künstliche Intelligenzen! Diese muss sicherstellen, dass niemand durch KI diskriminiert wird. Im Zweifelsfall muss sie die entsprechende KI auch analysieren und auf Vorurteile untersuchen.

Was meinst du? Wie können wir verhindern, dass KI rassistisch und sexistisch entscheiden?
 

Tags: #sexismus #rassismus #ki #zukunft

Zurück zur Übersicht