Diese Website verwendet Cookies. Wir können damit die Seitennutzung auswerten, um nutzungsbasiert redaktionelle Inhalte und Werbung anzuzeigen. Mit der Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Unsere Datenschutzhinweise.
Werbung

Per Algorithmus doppelt bestraft

Ein Fall in den USA zeigt, dass Rassismus auch mithilfe der Software von Krankenversicherungen zur Wirkung kommen kann

  • Von Ulrike Henning
  • Lesedauer: 4 Min.

Big Data oder künstliche Intelligenz sind Schlagworte, auf die auch bei der Digitalisierung des Gesundheitswesens große Hoffnungen gesetzt werden. Nötig sind dafür auf jeden Fall Algorithmen, eindeutige Handlungsanweisungen, nach denen Computer schrittweise Probleme abarbeiten. Kritisch kann es für Patienten werden, wenn Algorithmen verwendet werden, um festzustellen, ob ihnen bestimmte Leistungen zustehen. In Deutschland entscheiden immer noch Sachbearbeiter, auch wenn diese ebenfalls nach Handlungsanweisungen arbeiten. Schwieriger wird es, wenn die entsprechenden Programme für die Anwender nicht mehr durchschaubar sind.

Ein Beispiel wurde Ende letzten Jahres in den USA offenbar. Eine weit verbreitete Computersoftware für Krankenhäuser hatte Entscheidungen darüber zu treffen, welche Patienten mit einem speziellen Programm vor Spätkomplikationen ihres Diabetes geschützt werden müssten. Als entscheidende Variablen spielten aber die persönlichen gesundheitlichen Risikofaktoren nicht die wichtigste Rolle. Es wurden vielmehr die Gesundheitskosten der Patienten im zurückliegenden Jahr herangezogen.

De facto wurden über diese Variable sozial benachteiligte Patienten, genauer: Menschen afrikanischer Herkunft und dunkler Hautfarbe, diskriminiert. Gesundheitsausgaben (bei der Krankenversicherung) für sie sind niedriger, da sie seltener zum Arzt gehen und schwerer zu Behandlungen zu motivieren sind. Menschen, die das Gesundheitssystem eh schon seltener in Anspruch nehmen, werden also doppelt bestraft. Das zahlt sich nicht einmal für das Gesundheitssystem oder die Krankenkassen aus, denn die Folgekosten der Nichtbehandlung sind dann umso höher.

Festgestellt wurde die Schieflage von Gesundheitswissenschaftler Ziad Obermeyer und seinem Team an der University of California in Berkeley. Sie hatten den besagten Algorithmus einer Routineüberprüfung unterzogen und fanden heraus, dass sich die Gesundheit von Schwarzen viel schlechter entwickelte als die von Weißen mit den gleichen Risikowerten. Weiße wurden nach den Vorgaben des Algorithmus also bevorzugt. Eine Ausnahme ist das nicht: Das Verfahren wird von vielen Kassen und Kliniken genutzt, Algorithmen der Konkurrenz funktionieren ähnlich. Besonders verwirrend: An der Oberfläche sind die Computerprogramme nicht rassistisch. Die Höhe der Kosten korreliert jedoch mit der Hautfarbe; diese Information versteckt sich in den Abrechnungsdaten.

Rassismus im Gesundheitswesen der USA ist keine neue Erscheinung. Experten verweisen auf lebenslange Diskriminierung, die chronischen Stress bewirke. Auch die Geschichte mehrerer Hundert Jahre voller Verbrechen und Benachteiligung wirkt nach. Stigmatisierung und sozioökonomische Faktoren bewirken, dass Schwarzen unter anderem eine HIV-Infektion oder andere Erkrankungen mehr schaden als ebenfalls erkrankten Weißen. Schwarze Frauen sterben in den USA dreimal so häufig im Zusammenhang mit einer Geburt wie andere Frauen. Die Suizidrate junger Schwarzer ist doppelt so hoch wie bei weißen Jugendlichen. Gesundheitsbeschwerden der Nichtweißen werden weniger ernst genommen.

Hinzu kommen medizinische Verbrechen, darunter die Tuskegee-Syphilis-Studie, die von 1932 bis 1972 lief. Dafür hatte der US Public Health Service 399 Schwarze mit Syphilis als Teilnehmer rekrutiert und ihnen eine Behandlung versprochen. Als in den 40er Jahren ein Heilmittel gefunden wurde, enthielten es die Forscher ihren Probanden vor.

Bereits im 19. Jahrhundert hatte der US-amerikanische Frauenarzt James Marion Sims in Alabama eine Operationsmethode zur Therapie von Blasen-Scheiden-Fisteln entwickelt und an mehreren Sklavinnen erprobt - ohne Betäubung, obwohl diese damals gerade üblich wurde. Eine der Frauen operierte er 30-mal. Erst später wandte Sims das Verfahren auch bei Frauen europäischer Herkunft an, dann allerdings mit einer Anästhesie.

Solche Ereignisse haben ein grundsätzliches Misstrauen Schwarzer gegenüber dem Gesundheitssystem hervorgerufen, das durch häufige Armut noch verstärkt, dazu führt, eben nur im äußersten Fall zu einer Notaufnahme zu gehen.

Auf digitale Unterstützung wollen Mediziner und erst recht Kassen und Krankenhauseigentümer in den USA nicht verzichten. Immerhin haben Forschende aus Berkeley, Boston und Chicago gemeinsam mit dem Hersteller den Algorithmus dahingehend verbessert, dass er Schwarze nicht mehr systematisch benachteiligt. Nach der Umprogrammierung stieg der Prozentsatz afroamerikanischer Patienten, die ein zusätzliches Behandlungsangebot erhielten, von knapp 18 auf 46 Prozent an.

Algorithmen der beschriebenen Art werden in Deutschland, soweit bekannt, erst wenig angewandt, in der EU jedoch schon. So gibt es umstrittene Programme, die in den Niederlanden Sozialbetrug aufdecken sollen oder in Dänemark Kinder schützen. Grundlagen für Letzteres waren Daten zur Arbeitslosigkeit oder die Anzahl von Arztbesuchen - daraus wurde ein Risiko für Kindesvernachlässigung berechnet.

Dieser Artikel ist wichtig! Sichere diesen Journalismus!

Besondere Zeiten erfordern besondere Maßnahmen: Auf Grund der Coronakrise und dem damit weitgehend lahmgelegten öffentlichen Leben haben wir uns entschieden, zeitlich begrenzt die gesamten Inhalte unserer Internetpräsenz für alle Menschen kostenlos zugänglich zu machen. Dennoch benötigen wir finanzielle Mittel, um weiter für sie berichten zu können.

Helfen Sie mit, unseren Journalismus auch in Zukunft möglich zu machen! Jetzt mit wenigen Klicks unterstützen!

Unterstützen über:
  • PayPal
  • Sofortüberweisung

Solidarisches Berlin und Brandenburg

Corona ist nicht nur eine Gesundheitskrise. Es ist auch eine Krise des Sozialen. Wir beobachten alle sozialen und sozioökonomischen Entwicklung in der Hauptstadtregion, die sich aus der Verbreitung des Coronavirus ergeben.

Zu allen Artikeln