univie 3/2022 - Magazine - Page 13
SCHWERPUNKT
„In der analogen Welt bekommen von
Diskriminierung Betroffene das in der
Regel mit und können sich zur Wehr
setzen. Algorithmen machen das hinter
unserem Rücken.“
Prof. Sandra Wachter,
Professor of Technology and Regulation
Oxford Internet Institute, University of Oxford,
Alumna der Rechtswissenschaften, Uni Wien
regulierung, Plattformregulierung,
Fake News, Deep Fakes oder Robotics.
Mein Fokus liegt aktuell auf künstlicher
Intelligenz, ich schaue mir an, wie Algorith
men unser Leben verändern, auf positive
wie auf negative Weise. Einer meiner
Schwerpunkte ist der Datenschutz. Ein
Algorithmus funktioniert ja nur, wenn man
Daten hineinfüttert. Und ohne einen Algo
rithmus sind die Daten oft zu viel und zu
unverständlich, um einen Nutzen daraus
ziehen zu können – aber wo es Daten gibt,
sind immer auch Datenschutzprobleme.
Ich möchte sozusagen die Geheimnisse ein
Stück weit lüften, die ein Algorithmus über
uns lernen kann, ohne dass uns das so rich
tig bewusst ist.
Können Sie ein Beispiel nennen?
Algorithmen sind sehr gut darin, zwischen
den Zeilen zu lesen. Aufgrund von Daten,
etwa darüber, welches Auto man fährt,
welche Schuhe man trägt oder ob man
gerne Eis isst am Sonntag, kann der Algo
rithmus bestimmte Vorhersagen über uns
treffen – etwa ob jemand eine Frau ist, ob
jemand schwarz ist oder einer bestimmten
Religion angehört. Dinge, die man selbst
nicht damit assoziieren würde. Man hinter
lässt die ganze Zeit Spuren im Internet und
gibt damit eigentlich mehr oder weniger
sein Tagebuch ab.
Algorithmen treffen oft sehr wichtige Ent
scheidungen über uns, etwa ob jemand ins
Gefängnis gehen muss, ob jemand ein
arlehen bekommt, befördert oder ent
D
lassen wird. Und da diese Algorithmen oft
sehr komplex und undurchsichtig sind,
interessiere ich mich für die Frage, wie man
sie erklärbar gestalten kann. Ich möchte
verstehen, warum ein Algorithmus eine
bestimmte Entscheidung getroffen hat,
einfach um sicherzustellen, dass es auch
die richtige Entscheidung war.
Und ein weiterer Fokus hat mit Gerechtig
keit, Fairness und Diversität zu tun – wir
können schließlich nur die Daten sammeln,
die schon entstanden sind. Und da es rela
tiv wenige Bereiche gibt, die nicht von
Sexismus, Rassismus, Heterosexismus etc.
geprägt sind, muss man sich im Klaren sein,
dass die Wahrscheinlichkeit, dass dieser
Algorithmus unfair ist, sehr hoch ist. Man
muss wachsam sein, Diskriminierungen
aus der Vergangenheit nicht ungesehen zu
übernehmen.
Sie sagen, wir werden eigentlich alle im
Internet diskriminiert, ohne es zu merken,
inwiefern? Und was ist der Unterschied
zwischen Diskriminierung im Internet und
im analogen Leben?
In der analogen Welt bekommen von Dis
kriminierung Betroffene das in der Regel
mit und können sich zur Wehr setzen.
Algorithmen machen das hinter unserem
Rücken. Wenn ich mich etwa auf Jobsuche
begebe, ist ab dem Zeitpunkt, wo ich den
Browser öffne, bereits klar, wer ich bin –
im Sinne meiner geschlechtlichen Identität,
meiner sexuellen Orientierung, meiner
»
thnischen Zugehörigkeit, meiner Religion,
e
meines Alters oder einer etwaigen Behin
derung. Das bedeutet, mir wird nicht unge
filtert jeder Job angezeigt, sondern der
Algorithmus sucht aus, was ich sehen soll.
Es kann also sein, dass ich manche Jobs gar
nicht angezeigt bekomme, weil ich vom
Algorithmus als ungeeignet herausgefiltert
worden bin, aber davon weiß ich gar nichts.
Was kann man gegen diese versteckte
Diskriminierung tun? Ist die Bewusstseins
bildung schon ein erster Schritt?
Das Recht ist in diesem Fall machtlos, ein
Beschwerdeverfahren kann ja nur demjeni
gen helfen, der sich diskriminiert fühlt.
Es wurde nicht dafür geschaffen, einen
Algorithmus davon abzuhalten, einem
Menschen Schaden anzutun. Da muss man
dringend nachbessern. Aus Statistiken wis
sen wir, dass 80 oder 90 Prozent der Leute
glauben, dass die Suchergebnisse, die sie
auf Google zu sehen kriegen, neutral sind.
Aber im Internet ist gar nichts neutral, das
sollten wir im Kopf behalten. Wir sitzen alle
in einer Filterbubble, die maßgeschneidert
ist für die Person, für die der Algorithmus
uns hält. Daher muss man andere Wege
finden, dafür zu sorgen, Menschen nicht
mehr zu benachteiligen.
Was man machen kann und wofür ich mich
einsetze, sind sogenannte Bias-Tests.
Ich sehe hier Unternehmen und Organi
sationen in der Bringschuld, sie müssen
beweisen, dass ihr verwendeter Algorith
mus die Gruppen gleichbehandelt.
3/ 22
13