News

AI Fairness - Wie KI unseren Alltag beeinflusst

Modelle der künstlichen Intelligenz werden zunehmend bei wichtigen Entscheidungen eingesetzt, z. B. bei Einstellungen, juristischen Risikobewertungen und Kreditwürdigkeitsprüfungen. Dabei tauchen häufig bestehende und gar verstärkende Voreingenommenheiten durch die Trainingsdaten in den Algorithmen auf, wie die Forschung zeigen kann. Da KI immer stärker in den Alltag integriert wird, ist es von entscheidender Bedeutung, sicherzustellen, dass diese Technologien fair und gerecht arbeiten. Aber was genau ist KI-Fairness, und warum ist sie wichtig? - Artikel von KI-Forscherin Shih-Chi Ma

17.03.2025

Definition von AI-Fairness

KI-Fairness bezieht sich auf den Grundsatz, dass KI-Systeme ohne Voreingenommenheit oder Diskriminierung arbeiten sollten, um eine gerechte Behandlung aller Personen zu gewährleisten, unabhängig von Merkmalen wie Geschlecht, ethnischer Zugehörigkeit oder sozioökonomischem Status. Um dies zu erreichen, müssen die Datenauswahl, das Design der Algorithmen und die Transparenz der KI-Prozesse genauestens beachtet werden. Dabei werden Fairnesskriterien üblicherweise in Gruppenfairness und individuelle Fairness unterteilt. Die Gruppenfairness konzentriert sich auf die statistische Gleichheit zwischen verschiedenen demografischen Gruppen, wie z. B. dem Geschlecht, und stellt sicher, dass positive oder negative Ergebnisse in diesen Gruppen ähnlich verteilt sind. Im Gegensatz dazu erhalten bei der individuellen Fairness Personen, die sich in relevanter Hinsicht ähneln, auch ähnliche Ergebnisse. Dadurch wird die Konsistenz von KI-gesteuerten Entscheidungen unterstrichen.

grüner Hintergrund, vier Holzwürfel, der letzte wird von zwei Fingern gegriffen

Auswirkungen von unfairen KI-Systemen

Wenn KI-Systeme Voreingenommenheit oder Diskriminierung an den Tag legen, kann dies weitreichende Folgen für Einzelpersonen, Unternehmen und die Gesellschaft als Ganzes haben.

  • Soziale Ungerechtigkeit: Voreingenommene KI kann bestehende gesellschaftliche Vorurteile aufrechterhalten und die Diskriminierung von historisch marginalisierten Gruppen verstärken. Dies kann zu weiterer wirtschaftlicher, systematischer Benachteiligung und zu sozialen Ungleichheiten in kritischen Bereichen wie Einstellung, Kreditvergabe und Strafverfolgung führen.

  • Verstärkung von Stereotypen: Voreingenommene KI-Systeme können schädliche Stereotypen verstärken und die negative Wahrnehmung und Behandlung bestimmter Gruppen aufrechterhalten. Die Geschlechterverbindung von z. B. „Krankenschwester" mit Frauen und „Ingenieur" mit Männern in KI-Sprachmodellen zeigt solche Vorurteile deutlich. Diese können zu diskriminierenden Einstellungspraktiken und gesellschaftlichen Wahrnehmungen beitragen, die die Chancengleichheit behindern.

  • Rechtliche Auswirkungen: Unternehmen, die KI-Systeme einsetzen, die zu voreingenommenen Ergebnissen führen, müssen mit rechtlichen Herausforderungen und Geldstrafen rechnen. Vorschriften wie das EU-KI-Gesetz und die Allgemeine Datenschutzverordnung (GDPR) stellen strenge Anforderungen an Fairness und Nichtdiskriminierung bei der automatisierten Entscheidungsfindung.

  • Geschäftliche Risiken: Voreingenommenheit in KI-Systemen kann zu fehlerhaften Entscheidungen, finanziellen Verlusten und geschwächtem öffentlichen Vertrauen führen. Ganz konkret: Unternehmen, die es versäumen, sich mit den Vorurteilen in ihren KI-gesteuerten Diensten zu befassen, riskieren einen Reputationsschaden, wenn diskriminierende Praktiken aufgedeckt werden. Einher gehen Misstrauen bei den Kunden und ein Rückgang von Marktanteilen und Rentabilität.

  • Schädigung des öffentlichen Vertrauens: Unfaire KI-Systeme untergraben das öffentliche Vertrauen in Technologie und Politik. Wenn Bürger KI als ungerecht oder diskriminierend empfinden, stehen sie ihrem Einsatz skeptischer gegenüber, wodurch die Akzeptanz verlangsamt und der potenzielle Nutzen von KI für verschiedene Sektoren - vom Gesundheitswesen bis zur öffentlichen Verwaltung – stark eingeschränkt wird.

Fälle aus der realen Welt, die KI-Fairness-Probleme aufzeigen

Die Risiken unfairer automatisierter Entscheidungsfindung sind nicht nur theoretisch, sondern haben sich in der Praxis bereits in Fällen mit schwerwiegenden Folgen gezeigt. Ein Beispiel ist der niederländische Kindergeldskandal, bei dem ein von der niederländischen Steuer- und Zollverwaltung eingesetztes Betrugserkennungssystem unverhältnismäßig häufig Eltern mit doppelter Staatsangehörigkeit oder ausländisch klingenden Namen ins Visier nahm. Tausende von Familien wurden fälschlicherweise des Betrugs beschuldigt und zur Rückzahlung hoher Beträge aufgefordert, was viele in finanzielle Not brachte. Die systembedingte Voreingenommenheit des Algorithmus führte zu Anschuldigungen wegen institutioneller Diskriminierung, was letztlich zu erheblichen politischen Konsequenzen führte. Ein weiterer bekannter Fall ist das KI-gestützte Einstellungsprogramm von Amazon, bei dem eine Diskriminierung von Frauen festgestellt wurde. Das System, das anhand von Lebensläufen früherer Bewerber trainiert wurde, lernte Muster, die männliche Bewerber bevorzugten, und bestrafte Lebensläufe, die frauenbezogene Begriffe wie Hinweise auf Frauenhochschulen enthielten. Amazon hat das System schließlich aus dem Verkehr gezogen, nachdem es seine inhärente Voreingenommenheit erkannt hatte.

 

Roter Hintergrund, 2 Würfel

Aktuelle EU-Verordnungen zum Thema KI-Fairness

Die Europäische Union hat wichtige Schritte zur Regulierung von KI-Systemen unternommen, um sicherzustellen, dass sie fair und transparent arbeiten. Mit dem KI-Gesetz der EU werden KI-Anwendungen auf der Grundlage ihrer potenziellen Risiken in vier Kategorien eingeteilt. KI-Systeme mit hohem Risiko, wie z. B. solche, die bei Einstellungen, Kreditwürdigkeitsprüfungen und in der öffentlichen Verwaltung eingesetzt werden, müssen strenge Anforderungen an Fairness, Transparenz und Verantwortlichkeit erfüllen. Unternehmen, die diese Systeme einsetzen, müssen nachweisen, dass ihre KI-Modelle keine diskriminierenden Vorurteile beinhalten, und die Nichteinhaltung dieser Anforderungen kann zu erheblichen Geldstrafen führen.

Neben dem KI-Gesetz spielt auch die Allgemeine Datenschutzverordnung (GDPR), die seit dem 25. Mai 2018 in Kraft ist, eine entscheidende Rolle beim Thema Fairness in der KI. Die GDPR schreibt vor, dass personenbezogene Daten rechtmäßig, fair und transparent verarbeitet werden müssen. Das bedeutet, dass KI-Systeme, die auf personenbezogenen Daten beruhen, nicht zu diskriminierenden oder ungerechten Ergebnissen führen dürfen. Außerdem haben Einzelpersonen das Recht, automatisierte Entscheidungen mit erheblichen Auswirkungen anzufechten, was die Verantwortlichkeit in KI-gesteuerten Prozessen stärkt.

Blauer Hintergrund, zwei Glühbirnen mit blauem Stab verbunden den eine Hand in der Mitte hält

Schlussfolgerung: Der Imperativ der KI-Fairness

KI-Fairness ist nicht nur ein technisches Problem, sondern erfordert einen kulturellen Wandel, wie wir KI entwickeln, einsetzen und bewerten. Fälle wie der niederländische Kindergeldskandal und Amazons Einstellungsalgorithmus haben uns gezeigt, was passiert, wenn die Fairness außer Acht gelassen wird – echte Menschen leiden, Institutionen verlieren Glaubwürdigkeit und das öffentliche Vertrauen in KI schwindet. Verordnungen wie das EU-KI-Gesetz und die Datenschutzgrundverordnung sind ein wichtiger Schritt in Richtung Überwachung und Abschwächung dieser Risiken, aber echte KI-Fairness erfordert nicht nur eine regulatorische Anforderung, sondern einen Imperativ, eine gesellschaftliche Grundmotivation.

Aktuelles

Mehr Veranstaltungen

KI Abend in Spremberg

Die Präsenzstelle Spremberg lädt gemeinsam mit der Kreisvolkshochschule zu einem inspirierenden und informativen Vortrag zum Thema Künstliche Intelligenz (KI) ein. 

Workshop Rapid Prototyping

Praktische Einführung in das Rapid Prototyping: Vom 3D-CAD bis hin zum 3D-Druck.

Lernen Sie in diesem Workshop die Grundlagen des Designs von 3D-druckbaren Prototypen und Rapid Prototyping / Iterationstechniken kennen. Erleben Sie die komplette Pipeline - von der ersten Idee über das Design bis zum endgültigen Druck.

Chatbots - digitale Mitarbeiter

Übersicht zu und Chancen sowie Risiken beim Einsatz von Chatbots.

Eine Veranstaltung mit dem BVMW - Bundesverband mittelständischer Wirtschaft, EDIH pro_digital und MDZ Spreeland stellen sich vor

Die Zukunft mit 5G: Grundlagen und Potenziale für Unternehmen

Erfahren Sie mit uns, wie 5G-Technologie mittelständische Unternehmen revolutionieren kann. Entdecken Sie die Grundlagen und Potenziale dieses Mobilfunkstandards und erfahren von praxisnahen Beispielen.

Fördermittwoch - Einführung in die Antragstellung

Erfolgreich Fördergelder beantragen: Der Workshop für KMU und PSOs

Am 14. Mai um 14:00 Uhr laden wir Sie herzlich zu unserem kostenfreien Workshop „Einführung in die Antragstellung“ ein. Die Veranstaltung findet im Opp:Lab an der TH Wildau statt und richtet sich an kleine und mittlere Unternehmen (KMU) sowie öffentliche und private Organisationen (PSOs), die Anfänger in der Antragstellung sind.

Wöchentlich

Open Lab Day ViNN:Lab

Open Lab Day – Offen für Alle.

Das ViNN:Lab im Rahmen des wöchentlichen Open Lab Days wieder geöffnet.