Algorithmische Diskriminierung: Die Schweiz braucht einen wirksamen Schutz.
- Franziska Oehmer-Pedrazzi
- vor 6 Minuten
- 3 Min. Lesezeit
Takeaways zur Nationalen Konferenz «Algorithmische Diskriminierung: Politische Verantwortung», 18.11.2025
Autorin: Franziska Oehmer-Pedrazzi

Algorithmische Systeme durchdringen zunehmend unseren Alltag – von der Jobsuche über die Wohnungssuche bis zur Versicherung. Was vielversprechend als objektiv und neutral beworben wird, entpuppt sich jedoch oft als Verstärker bestehender Ungleichheiten. Denn Algorithmen sind nicht neutral, sondern reproduzieren strukturelle Verzerrungen aus dem Datenmaterial, das ihnen zugrunde liegt – und tun das schneller, umfassender und in grösserer Reichweite als je zuvor. Die Nationale Konferenz «Algorithmische Diskriminierung: Politische Verantwortung» in Bern am 18. November 2025 widmete sich der Frage, wie Menschen in der Schweiz besser vor dieser Ungleichbehandlung geschützt werden können.
Im Fokus standen das Rechtsgutachten «Schutz vor algorithmischer Diskriminierung» (Universitäten Basel und Zürich) sowie die darauf basierenden Empfehlungen der Eidgenössischen Kommission für Frauenfragen (EKF) und der Eidgenössischen Kommission gegen Rassismus (EKR).
Was ist direkte und indirekte Diskriminierung?
Das Bundesgericht unterscheidet zwei Formen der Ungleichbehandlung:
Direkte Diskriminierung: Personen werden aufgrund eines identitätsprägenden Merkmals – etwa Geschlecht, Herkunft oder Religion – ungleich behandelt, mit herabwürdigender oder ausgrenzender Wirkung.
Indirekte Diskriminierung: Formal neutrale Regeln oder Verfahren benachteiligen bestimmte Gruppen systematisch – ohne explizite Absicht, aber ohne sachliche Rechtfertigung.
Algorithmische Systeme verstärken insbesondere indirekte Diskriminierung: Sie schreiben strukturelle Verzerrungen aus den Trainingsdaten fort und skalieren sie.
Wie KI diskriminiert – Beispiele
Dass algorithmsiche Systeme diskriminieren, ist längst belegt. Fälle aus Alltag und Beruf illustrieren, wie unterschiedlich die Mechanismen wirken – und wie strukturell ihre Folgen sind. Einige Beispiele:
Arbeitsmarkt: In der Baubranche werden männliche Bewerber bevorzugt; Stellenanzeigen für Pflege- und Betreuungsberufe erreichen überwiegend Frauen auf sozialen Medien.
Wohnungsmarkt: Bewerbungen von Personen mit nicht-europäischen Namen führen seltener zu positiven Rückmeldungen.
Versicherungen: Junge Männer mit nicht-europäischen Namen zahlen höhere Prämien.
Solche Muster entstehen nicht aus technischer Böswilligkeit, sondern aus Daten, die gesellschaftliche Ungleichheiten widerspiegeln – und sie unbemerkt verstärken. Zudem ist algorithmische Diskriminierung durch eine Einzelperson nur schwer nachzuweisen.Â
Rechtliche Lage: Ein Flickenteppich mit Lücken
Solche Diskriminierungsfälle treffen aktuell auf einen rechtlichen Rahmen, der mit der technologischen Entwicklung nicht vollkommen Schritt halten kann. Das Rechtsgutachten „Schutz vor algorithmischer Diskriminierung“ deckt Schwachstellen in mehreren zentralen Rechtsgebieten auf:
Verfassung: Artikel 8 der Bundesverfassung verbietet Diskriminierung und schliesst indirekte Benachteiligung ein. Allerdings gilt dieser Schutz hauptsächlich gegenüber dem Staat – nicht aber im Privatbereich, wo algorithmische Systeme häufig eingesetzt werden. Zudem fehlt ein konkretes Gesetz zur Durchsetzung.
Zivilrecht (Privatrecht): Artikel 28 im Zivilgesetzbuch (ZGB) bietet theoretisch Schutz vor Persönlichkeitsverletzungen, zu denen auch Diskriminierung zählen kann. In der Praxis wird diese Bestimmung jedoch von Gerichten sehr unterschiedlich ausgelegt und angewendet.
Arbeitsrecht: Der Schutz im Arbeitsrecht ist stark eingeschränkt. Er konzentriert sich fast ausschliesslich auf die Diskriminierung aufgrund des Geschlechts. Andere Formen der Benachteiligung, etwa aufgrund der Herkunft, des Alters oder des Namens, bleiben dabei oft aussen vor.
Datenschutzrecht: Unser neues Datenschutzgesetz (DSG) ist nicht dafür ausgelegt, diskriminierende Effekte von Algorithmen zu bekämpfen. Es stellt den Schutz der Daten in den Vordergrund, nicht aber die Frage, ob mit diesen Daten Menschen unfair behandelt werden.
Handlungsbedarf: Wie ein moderner Rechtsrahmen für KI aussehen sollte
Angesichts dieser Lücken fordern die Eidgenössische Kommission für Frauenfragen (EKF) und die Eidgenössische Kommission gegen Rassismus (EKR) ein umfassendes Massnahmenpaket:
Ein klares Antidiskriminierungsgesetz
Die Expert:innen fordern ein allgemeines Gleichbehandlungsgesetz mit klaren Regelungen:
Präzise Definitionen von Diskriminierung
Erleichterte Beweislast für Betroffene
Klagerecht für Organisationen
Kostenlose Verfahren für Opfer
Stärkung des Persönlichkeitsschutzes
Durch konsequente Anwendung von Artikel 28 ZGB könnte Diskriminierung als Persönlichkeitsverletzung anerkannt werden. Dies würde es ermöglichen, auch systemische Benachteiligungen gerichtlich anzufechten – insbesondere durch kollektive Klagen.
Nachbesserung im Datenschutzgesetz
Die Fachkommissionen schlagen einen neuen Grundsatz vor, der explizit verbietet, Menschen durch Datenverarbeitung zu benachteiligen. Dies wäre eine wichtige Ergänzung zum bestehenden Datenschutzrecht.
Unterstützung und Aufklärung
Angeregt wird eine nationale Beratungsstelle, die Betroffenen zur Seite steht. Begleitet werden soll diese von umfassenden Aufklärungskampagnen, um das Bewusstsein für die gesellschaftlichen Auswirkungen algorithmischer Entscheidungen zu schärfen.
Ausblick: Regulierung muss Schritt halten
Die Empfehlungen markieren einen wichtigen Schritt hin zu diskriminierungsfreier KI. Doch Regulierung kann nicht rein national gedacht werden – algorithmische Systeme operieren global. Vor allem aber braucht es Tempo: KI diskriminiert schon heute.
Zum Rechtsgutachten: https://www.ekr.admin.ch/pdf/D_Gutachten_Schutz_vor_algorithmischer_Diskriminierung.pdf
Zu den Empfehlungen: https://www.ekr.admin.ch/pdf/D_Empfehlungen_Schutz_vor_algorithmischer_Diskriminierung.pdf
Transparenz zum Einsatz von KI für diesen Beitrag:
Der Text wurde durch ChatGPT Korrektur gelesen. Zudem wurden Vorschläge für einzelne Formulierungen von Chat GPT übernommen.
Mithilfe von ChatGPT wurde die Illustration erstellt. Grundlage hierfür war ein Foto - aufgenommen am Anlass.


