Bias in der Künstlichen Intelligenz

Bias in der Künstlichen Intelligenz

Worum geht es in der Keynote von Martina Mara? (e-day 23)

Martina Mara erläutert Verzerrungen in der KI am Beispiel von Geschlechtszuschreibungen.


Eingangsrätsel: Wie ist das möglich?

  • Ein Vater und sein Sohn sind gemeinsam im Auto unterwegs und haben einen furchtbaren Autounfall. Der Vater verstirbt leider an Ort und Stelle.
  • Der Sohn wird mit Blaulicht ins Krankenhaus gefahren und sofort in den Operationssaal gebracht
  • Der Artzt sieht ihn kurz an und meint, hier müsse man eine Koryphäe zu Rate ziehen.
  • Die Koryphäe kommt, sieht den jungen man auf dem Operationstisch und sagt: " Ich kann ihn nicht operieren, er ist mein Sohn"

Bei der Koryphäe handelt es sich um die Mutter des jungen Mannes. Argumentation: Der Begriff der Koryphäe ist meist mit einer männlichen Vorstellung hinterlegt. Deshalb entsteht meist ein Widerspruch zwischen der Vorstellung "Der Vater ist verstorben" und (mutmasslich) "Der Vater ist die Koryphäe"

Bias - Abweichen vom Prototypen

  • Abweichungen vom traditionellen Schema benötigen Abweichungen (Bananen - Grüne Bananen)
  • Prototypen halten sich hartnäckig, auch wenn sich werte verändern.


Vier Herausforderungen (18:00)

  • Challenge 1: Stereotype Rollenbilder in Datensätzen (18:10)
    • Kurzgeschichte von ChatGPT - männlich vs weiblich
    • Automatisierte Übersetzung - Problem unbestimmter Personalpronomen und fehlenden Kontextes
  • Challenge 2: Mangelnde Repräsentanz in Datensätzen (32:05)
    • Spracherkennugnssysteme & Dialekt, Lokal- und Generationscolorit
    • Mozilla Common Voice & Transparenz der Datensatz-Zusammensetzung
    • Mangelhaftes oder falsches Daten-Labeling - Hochzeit in verschiedenen Kulturen
    • Mangel an Partizipation in der Produktentwicklung - Mobile aus Baby-Sicht
  • Challenge 3: Ungleichverteilung von Wissen und Möglichkeiten zur Mitgestaltung (43:20)
    • Wer kennt den Algorithmus?
    • Alters- und Geschlechtsunterschiede im Bereich KI/MINT
  • Challenge 4: Stereotype Gestaltung von Technologie (50:52)
    • Sprachassistenten sind in der Grundeinstellung weiblich.
    • Kontra-stereotpe Technologie-Gestaltung: Rehabilitations-Roboter

Forderungen im Fazit (59:53): Wir brauchen:

  • Bewusstsein über die Herausforderungen
    • bei gleichzeitiger Anerkennung, dass sie sich nicht rein technisch lösen lassen.
  • Mehr Diversität
    • in den Daten, aus denen wir KI-Systeme lernen lassen
    • in der demografischen Zusammensetzung von Entwicklungs-Teams
    • in Perspektiven, Expertisen und Mindsets
    • in der Ansprache von Zielgruppen für digitale Bildungsangebote