Die Welt gehört Hugo

STRIVE+ Es gibt viel mehr Daten über Männer als über Frauen. Dieser so genannte Gender Data Gap wirkt sich gravierend auf unseren digitalisierten Alltag aus. Für das weibliche Geschlecht kann das lebensgefährliche Folgen haben.


Crashtest Dummys auf der IAA 2007 in Frankfurt am Main (Foto: Marcin Cieślak Saper via Wikimedia Commons, CC BY-SA 3.0, Symbolbild)

Nennen wir ihn der Einfachheit halber Hugo. Hugo ist 1,75 Meter groß, wiegt 78 Kilogramm und ist ein ziemlich unspektakulärer Durchschnittstyp. Trotzdem gehört ihm die Welt. Fast alles darin ist für ihn gemacht, richtet sich nach seinen Bedürfnissen und seiner Gestalt. Im Supermarkt oder der Bahn erreicht er problemlos jedes Regal, automatische Türen gleiten zuverlässig vor ihm auf, Smartphones reagieren auf seine Sprachbefehle und das Büro ist für sein Empfinden wohlig temperiert. Wenn er mal muss, kann er sich ohne langes Schlangestehen erleichtern. Wenn er einen Unfall baut, schützen ihn Gurt, Airbag und Sitzposition optimal vor Verletzungen. Und wenn er einen Herzinfarkt hat, wird dieser in der Regel schnell erkannt und behandelt. Handys, Klaviertasten, Bürostühle, Autositze, Fahrradsättel, Sonnencreme-Sprühflaschen – passen perfekt in seine Hände, unter seinen Hintern, zu seinem Rücken.


Natürlich gibt es Hugo nicht wirklich. Oder besser gesagt: Es gibt sehr viele Hugos. Hugo ist der 50-Perzentil-Mann, der männliche Standard, der Mustermann. Nach seinen Daten richtet sich die Gestaltung unserer Umgebung, egal ob es um Produkte, Designs, Architektur, Software, Medikamente, Mobilität oder Sicherheitsrichtlinien geht. Das Problem: Hugos Daten liefern nicht nur die Grundlage für den Standard-Mann, sondern für alle Menschen. „Männer sind in unserer Gesellschaft das Maß aller Dinge – wortwörtlich“, schreibt Rebekka Endler in ihrem gerade erschienenen Buch „Das Patriarchat der Dinge“.


Frauen haben ein um 47% höheres Risiko, verletzt zu werden - obwohl sie seltener in Unfälle verwickelt sind

„Das stimmt“, sagt Gabriele Kaczmarczyk vom Deutschen Ärztinnenbund, „und als Referenz für Frauen taugen diese Daten einfach nicht.“ In ihrem Bereich hat der sogenannte Gender Data Gap, also der Mangel an Daten über Frauen, besonders gravierende Auswirkungen. Schließlich geht es in der Medizin nicht um Komfort im Alltag, sondern im Zweifel um Leben und Tod. „Männer und Frauen unterscheiden sich physiologisch und anatomisch stark voneinander. Frauen verstoffwechseln zum Beispiel Wirkstoffe von Arzneien anders, zeigen mitunter andere Symptome als Männer oder entwickeln bestimmte Krankheiten häufiger oder seltener“, so Kaczmarczyk. In der Corona-Krise könne man das gut beobachten: Eine Infektion mit Covid verläuft bei Männern oft schwerer, Frauen wiederum haben ein erhöhtes Risiko schwerer Nebenwirkungen einer Impfung. Die Unterschiede sind offensichtlich, die Ursachen hingegen schlecht erforscht. Auch, weil geschlechtersensible Medizin bisher keine große Rolle in Forschung und Praxis spielt. Einen Lehrstuhl dafür gibt es in Deutschland erst seit April 2021.

Warum Frauen anders auf die Impfungen gegen Covid reagieren, ist schlecht erforscht (Symbolbild)

Dabei sind die Auswirkungen der Datenlücke frappierend. Eine Studie aus Großbritannien etwa zeigt, dass Frauen mit einem Herzinfarkt 50 Prozent häufiger eine falsche Diagnose bekommen und deshalb eine erhöhte Sterblichkeit haben. Eine geschlechterspezifische Analyse zur Wirkung eines Medikaments gegen Herzrhythmusstörungen im „The New England Journal of Medicine“ hat ergeben, dass der untersuchte Wirkstoff bei Männern sehr gut, bei Frauen hingegen deutlich schlechter wirkt. Bei Verkehrsunfällen wiederum haben Frauen ein um 47% höheres Risiko, verletzt zu werden und ein 17% höheres Risiko zu sterben – obwohl sie seltener in Unfälle verwickelt sind. Das liegt unter anderem daran, dass die Position von Sitz, Lehne, Lenkrad, Gurt und Airbag an Männern ausgerichtet ist und Crashtests ausschließlich mit männlichen Dummys durchgeführt werden.


Mittlerweile müssen Arzneien vor einer Zulassung in Europa oder den USA zwar an Männern und Frauen getestet werden. „Doch die Daten werden nicht geschlechterspezifisch ausgewertet und es gibt eine Vielzahl von Medikamenten, die schon vor dieser Regelung auf dem Markt waren“, sagt Kaczmarczyk, für die das Problem schon im viel früheren Forschungsstadium der Tierversuche beginnt: In der Medizin wird fast ausschließlich an männlichen Mäusen und Ratten geforscht. Weibliche Tiere gelten aufgrund ihres Hormonzyklus als zu kompliziert für die Versuche. Die Medizinerin kann darüber nur den Kopf schütteln. „Natürlich macht es Studien aufwändiger, wenn man weibliche und männliche Organismen berücksichtigt. Aber aus Gewohn- und Faulheit mal eben die Hälfte der Menschheit zu ignorieren, kann ja nicht die Antwort darauf sein.“

Systeme zur Spracherkennung funktionieren bei Männern besser (Symbolbild)

Die Informatikerin Meike Zehlike sieht das ähnlich. An der Humboldt-Universität Berlin und dem Max-Planck-Institut für Softwaresysteme in Saarbrücken promoviert sie zum Thema Diskriminierung in Algorithmen. Dass generell zu wenig Daten über Frauen gesammelt und aufbereitet werden, ist für sie nur ein Teil des Problems. „Mal ganz zu schweigen von der Datenlage zu non-binary oder trans* Menschen“, sagt sie. Ein anderes bestehe darin, dass Algorithmen Ungerechtigkeiten und Vorurteile aus der Gesellschaft in der Regel nicht ausgleichen, sondern reproduzieren oder sogar verstärken. Neutrale Algorithmen? Neutrale Daten? „Gibt es nicht“, sagt Zehlike, die unter anderem zu Rankings bei Bewerbungsprozessen forscht. „Da bevorzugen Algorithmen zum Beispiel meist männliche Kandidaten. Denn aus den zugrundeliegenden Daten lernen sie, dass Führungskräfte oder Menschen ohne Lücken im Lebenslauf oft Männer sind – weil sie aktuell häufiger in Chefsesseln sitzen und seltener Babypause machen.“ Das Problem ist auch aus anderen Bereichen bekannt: Bei der Polizei kriminalisieren Algorithmen Schwarze Menschen, bei Banken verweigern sie Bewohner:innen bestimmter Viertel die Kreditwürdigkeit. Und würde man KI darauf trainieren, Herzinfarkte zu erkennen, würden Frauen nach jetziger Datenlage einfach weiter hinten runterfallen. „Es ist ein Trugschluss, dass datenbasierte Entscheidungen objektiv sind. Algorithmen sind nicht per se fairer als Menschen – sie werden von Menschen gemacht und spiegeln in der Regel die Machtverhältnisse und Ungerechtigkeiten einer Gesellschaft wider“, stellt Zehlike klar.


Das Gute daran: Wer sich die Problematik bewusst macht, kann gegensteuern. Zehlike hat schon große Unternehmen und Gewerkschaften beraten, etwa zum Einsatz von KI oder zu durch Algorithmen gesteuerte Auswahlverfahren für neue Mitarbeiter und Mitarbeiterinnen. Ungerechtigkeit kann man ein stückweit rausrechnen – zum Beispiel, indem unter den ersten Suchergebnissen immer auch Frauen auftauchen. Zumindest im Bereich des Programmierens gelangt das Thema gerade mehr ins Bewusstsein. Die zugrundeliegenden Daten werden kritischer hinterfragt, die Entscheidungslogik von Algorithmen wird gerechter und transparenter gemacht. „Das geht auf jeden Fall in die richtige Richtung“, findet Zehlike.


Auch sonst tut sich eine Menge. Seit Caroline Criado-Perez vor zwei Jahren das Buch „Unsichtbare Frauen“ veröffentlichte, wird deutlich mehr über den Gender Data Gap und seine Auswirkungen auf die Lebensrealität von Frauen gesprochen. Die Autorin hat darin eine Unmenge an Beispielen zusammengetragen, die offenlegen, wie systematisch das Problem ist. „Entscheidend ist das Muster“, schreibt sie dann auch auf den ersten Seiten. Und kommt am Ende zu dem Schluss: „Ist es (an-)erkannt, kann man es angehen – etwa, indem man Frauen in Entscheidungspositionen fördert.“