Pflege-KI bevorzugt Maenner: Geschlechterungleichheit durch fehlerhafte Datenlage

0
35

Pflege-KI bevorzugt Männer: Geschlechterungleichheit durch fehlerhafte Datenlage

Eine alarmierende Studie der London School of Economics (LSE) bringt schwere Mängel in der Anwendung von Künstlicher Intelligenz (KI) im Gesundheitsbereich ans Licht. Das von Google entwickelte KI-Modell „Gemma“ zeigt deutliche geschlechtsspezifische Verzerrungen – zu Ungunsten von Frauen, obwohl identische Pflegebedarfe vorliegen.

Gleiche Daten – unterschiedliche Urteile

Die Forschenden analysierten über 600 reale Pflegeakten und wiesen diesen jeweils eine männliche und eine weibliche Identität zu. Die Resultate offenbarten signifikante Unterschiede:

  • Männer wurden häufiger als „krank“, „behindert“ oder „arbeitsunfähig“ eingestuft.
  • Bei identischen Informationen wurden Frauen als „selbstständig“ oder „nicht pflegebedürftig“ eingeschätzt.

Ein besonders aufschlussreiches Beispiel: Ein 84-jähriger Mann wurde als mehrfach krank und mobil eingeschränkt beschrieben – seine weibliche Entsprechung jedoch als Frau, die ihre Versorgung „erfolgreich sicherstellt“ und „unabhängig“ bleibt.

Daten als Ursprung struktureller Ungleichheit

Die Ursache liegt im sogenannten „Gender Data Gap“. Weil medizinische und soziale Studien historisch überwiegend Männer einbezogen, sind die Daten, mit denen KI-Modelle trainiert werden, geschlechtsverzerrt. Solche Trainingsmängel führen zu sogenannten „allokativen Schäden“: Fehlentscheidungen bei Zuweisungen, Leistungen oder Einstufungen aufgrund geschlechterungerechter Daten.

Transparenz und Kontrolle sind unerlässlich

Experten fordern umfassende Reformen im Umgang mit KI im öffentlichen Bereich:

  1. KI-Systeme müssen offen gelegt und regulär überprüft werden.
  2. Datensätze sollten divers und geschlechtergerecht gestaltet sein.
  3. Interdisziplinäre Entwicklerteams mit speziell geschulten KI-Ethikern sind notwendig.
  4. Pflicht zur unabhängigen Evaluierung von Algorithmen ist unerlässlich.

Der Vergleich mit dem KI-Modell „Llama 3“ von Meta zeigt: Es ist möglich, geschlechterfaire Systeme zu entwickeln. Dieses Modell wies in der Untersuchung keine Unterschiede bei geschlechtsspezifischen Bewertungen auf.

Ein Risiko für Gleichstellung im Gesundheitswesen

Zahlreiche Studien, auch vom Bundesamt für Gesundheit, zeigen bereits heute: Frauen sind in der medizinischen Versorgung häufig benachteiligt. Ihre Symptome werden weniger ernst genommen, Diagnosen seltener richtig gestellt und Behandlungen sind häufig weniger wirksam. KI-Systeme, die auf solchen fehlerhaften Prämissen beruhen, drohen diese Ungleichheit dauerhaft zu verankern.

Fazit: KI braucht Kontrolle statt blinden Fortschrittsglauben

Künstliche Intelligenz ist nicht automatisch neutral – sie lernt aus den Fehlern der Vergangenheit. Nur durch regelmässige Überprüfung, transparente Trainingsmethoden und fair gestaltete Daten kann KI ein Werkzeug für echte Gleichstellung im Gesundheitswesen werden – anstatt alte Benachteiligungen zu verfestigen.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein