Benachrichtigungen
Alles löschen

Rassismus in Algorithmen


Orangsaya
Themenstarter
Beiträge : 2931

Der gewaltsame Tod des US-Amerikaners George Floyd durch einen Polizisten hat die Debatte über Diskriminierung und Rassismus auf eine neue Ebene katapultiert. Davon sind auch Bereiche betroffen, die im ersten Moment nicht jedem einleuchten. Denn auch Algorithmen sind nicht immer objektiv und gerecht.

https://www1.wdr.de/mediathek/video/sendungen/aktuelle-stunde/video-angeklickt-rassismus-in-algorithmen---100.html

Ich denke, ohne Zweifel, müssen Dinge, die schlecht funktionieren korrigiert werden. Muss man das jedoch an die große Glocke des Rassismus hängen?

Antwort
12 Antworten
PeterPaletti
Beiträge : 1275

Das Ergebnis der Programmierung ist ja die Diskriminierung bzw. der Rassismus, weil die Programmierer in ihrer eigenen (manchmal recht engen) Welt leben und nicht alles bedenken oder bedenken können.
Sinnig wäre es schon, bei den Programmierern anzusetzen und ein Team aufzubauen aus verschiedenen Geschlechtern und Nationen, dann fallen solche Fehler schneller auf.

peterpaletti antworten
2 Antworten
Orangsaya
(@orangsaya)
Beigetreten : Vor 5 Jahren

Beiträge : 2931
Veröffentlicht von: @peterpaletti

Das Ergebnis der Programmierung ist ja die Diskriminierung bzw. der Rassismus, weil die Programmierer in ihrer eigenen (manchmal recht engen) Welt leben und nicht alles bedenken oder bedenken können.

Das Problem ist nicht, dass es eine enge Welt ist, weil sich die Problematik verändert. Dem muss man sich anpassen, wie auch Fehler, bei denen sich wegen dem Fehler keine diskriminiert fühlt, ebenfalls korrigiert werden müssen.

orangsaya antworten
PeterPaletti
(@peterpaletti)
Beigetreten : Vor 11 Jahren

Beiträge : 1275

Natürlich müssen Programmfehler korrigiert werden, aber die Frage ist ja, wie schleichen sich solche Fehler ein, die zur Diskriminierung führen.

peterpaletti antworten


agapia
 agapia
Beiträge : 1404
Veröffentlicht von: @orangsaya

Muss man das jedoch an die große Glocke des Rassismus hängen?

Wenn rassistische oder diskriminierende Strukturen erkannt werden, sollte man sie benennen.

agapia antworten
5 Antworten
Orangsaya
(@orangsaya)
Beigetreten : Vor 5 Jahren

Beiträge : 2931
Veröffentlicht von: @agapia

Wenn rassistische oder diskriminierende Strukturen erkannt werden, sollte man sie benennen.

Zu Rassismus gehört immer noch ein Motiv. Wenn in Algorithmen Fehler entstehen, dann muss das kein Rassismus sein. Ich glaube zu, Beispiel nicht, dass die fehlerhafte Erkennung von Schwarzen rassistische Hintergründe hat. Hat der Bericht auch nicht so ganz, sondern ein Rassismus aus versehen, oder so. Rassistisch ist es nicht, wenn die Gesichtserkennung schwarze schlecht erkennt, sondern eine Lücke, vielleicht auch ein programmierter Fehler. Auf dem Flughafen gibt es kein Interesse, dass schwarze schlechter erkannt werden. Rassismus wäre, wenn schwarze herausgefiltert würden, weil man sie explizit wegen etwas verdächtigt. Das findet nicht digital statt, sondern tendenziell eher analog. Stichwort: Schleierfahndung. Auch das in der Digitalisierung schwarze schwerer zu erfassen sind, ist nicht, weil man sie lieber über den Haufen fährt, sondern weil es digital Probleme gibt, sie zu erkennen. Das ist schon mit dem menschlichen Auge so. Im Dunkeln erkennt man sie einfach schwerer als Weiße. Was macht man, man fährt sie nicht um, um die Kassen zu entlasten, sondern versucht es durch hektische Reaktion zu kompensieren und rechtzeitig zu stehen. Gott ist auch kein Rassist, weil man Schwarze in bestimmten Situationen schlecht erkennt.

orangsaya antworten
agapia
 agapia
(@agapia)
Beigetreten : Vor 11 Jahren

Beiträge : 1404

Diese Lücke zeigt zumindest auf, dass - in diesem Fall - Schwarze nicht mitgedacht werden. Wenn das ist erkannt ist, kann man über die Gründe nachdenken.

agapia antworten
Orangsaya
(@orangsaya)
Beigetreten : Vor 5 Jahren

Beiträge : 2931
Veröffentlicht von: @agapia

Diese Lücke zeigt zumindest auf, dass - in diesem Fall - Schwarze nicht mitgedacht werden. Wenn das ist erkannt ist, kann man über die Gründe nachdenken.

Das ist ein möglicher Grund, es gibt allerdings mehr Möglichkeiten und man muss diese Problematik nicht einfach als Diskriminierung abtun.

orangsaya antworten
DerNeinsager
(@derneinsager)
Beigetreten : Vor 3 Jahren

Beiträge : 1449

Es ist genau umgekehrt.

Rassismus fusst wesentlich darin, Menschen welche meinetwegen Asiaten oder Afrikaner sind als minderwertig oder gänzlich anders zu betrachten als Europäer.

Nun wurde ein Programm geschrieben was Menschen erkennt und lernt, das ganze zufällig in einem Land wo halt mehrheitlich Weisse leben.

Das eine hat nichts mit dem anderen zu tun, vorausgesetzt es ist so wie beschrieben. So eine Firma braucht ein gutes QM System aber es ist eine Frechheit vom Fernsehen irgendwelche Programmierer in die Nähe des Wortes Rassismus zu rücken der unweigerlich mit Typen wie Adolf Hitler oder Sklavenhaltern mit einhergehen tut.

derneinsager antworten
agapia
 agapia
(@agapia)
Beigetreten : Vor 11 Jahren

Beiträge : 1404
Veröffentlicht von: @derneinsager

Es ist genau umgekehrt.

Was ist genau umgekehrt? Ich verstehe nicht.

agapia antworten
BeLu
 BeLu
Beiträge : 4576

Der Beitrag wirft munter alles durcheinander. Programmierung, Training, Algorithmus, Code, etc. Er zeigt daher vor allem, dass die Leute vom WDR nicht wirklich verstanden haben, worüber sie berichten.

Bei einer lernenden KI hat der Programmierer die Diskriminierung im Allgemeinen nicht in den Code des Algorithmus eingebaut. Der Code diskriminiert dann nicht, die Diskriminierung kommt dann erst aus dem aus Trainingsdaten erlernten Modell. Da müssen Entwickler natürlich darauf achten, mit was für Trainingsdaten die die KI füttern. Das erlernte Modell ist aber nach wie vor nicht der Programmcode, der ändert sich durch das Training nicht. Das erlernte Modell ist eine Datengrundlage, mit der der Algorithmus arbeitet. Wenn dann die weiße Katze als Hund klassifiziert wird, weil in der Datengrundlage nur schwarze Katzen und weiße Hunde vorkommen, dann ist das nicht die Schuld des Algorithmus und auch nicht die des Programmierers, sondern die desjenigen, der die Datengrundlage fürs Training ausgewählt hat, was in vielen Fällen nicht der Programmierer sein dürfte.

belu antworten
1 Antwort
lhoovpee
(@lhoovpee)
Beigetreten : Vor 7 Jahren

Beiträge : 2338
Veröffentlicht von: @belu

Programmierung, Training, Algorithmus, Code,

Das hängt aber alles zusammen.
Eine KI ist Programmcode, der programmiert wurde. Er besteht aus zwei Teilen, dem Training und dem Scoring/der Klassifizierung. Gerade KIs sind anfällig für Rassismus. Das haben die vielen Chat-Bots schon bewiesen. Bild- und Gesichtserkennung sind da ebenso anfällig für. Eine KI ist nun mal nicht wirklich intelligent.

Veröffentlicht von: @belu

Wenn dann die weiße Katze als Hund klassifiziert wird, weil in der Datengrundlage nur schwarze Katzen und weiße Hunde vorkommen, dann ist das nicht die Schuld des Algorithmus und auch nicht die des Programmierers, sondern die desjenigen, der die Datengrundlage fürs Training ausgewählt hat,

Wird doch auch so im Beitrag gesagt... Zitat: "KIs sind nicht nur Programmcode, sondern bestehen aus Erfahrungen". Viel mehr Differenzierung braucht es in so ein kurzen Beitrag nicht.
Zudem kann man durchaus auf den Traningsalgorithmus schauen, welcher Rolle dieser dabei spielt.

lhoovpee antworten


lhoovpee
Beiträge : 2338
Veröffentlicht von: @orangsaya

Muss man das jedoch an die große Glocke des Rassismus hängen?

Ja.

lhoovpee antworten
Teilen: