02.04.2026
Unser Podcast «Artikel Sieben» rückt die Menschenrechte in der Schweiz ins Zentrum. Einzelne Fälle machen gravierende Lücken im Menschenrechtsschutz sichtbar. In der neuen Folge gehen wir der Frage nach, welche Risiken der Einsatz von künstlicher Intelligenz für die Menschenrechte birgt – insbesondere dann, wenn Behörden auf KI-Systeme zurückgreifen. Gesprächspartnerin ist Liliane Obrecht, Rechtswissenschaftlerin und Vorstandsmitglied von AlgorithmWatch Schweiz.
Künstliche Intelligenzen können heute vieles: Sie verfassen Texte, liefern Informationen, organisieren Abläufe oder generieren Bilder. Gleichzeitig bergen sie erhebliche Risiken. So können sie Persönlichkeitsrechte verletzen oder diskriminierende Ergebnisse produzieren – etwa wenn bestimmte Menschengruppen systematisch benachteiligt werden. Besonders heikel wird dies, wenn Behörden KI einsetzen und sich auf deren Ergebnisse stützen. Denn fehlerhafte Auskünfte oder diskriminierende Entscheidungen können direkte Auswirkungen auf das Leben von Menschen haben.
Liliane Obrecht zeigt auf, dass sich staatliche Stellen in solchen Fällen nicht aus der Verantwortung ziehen können. Auch wenn Entscheidungen technisch unterstützt werden, bleibt die Pflicht bestehen, Grundrechte zu wahren und Diskriminierung zu verhindern.
In der 26. Folge von «Artikel Sieben» beleuchten wir, wo die rechtlichen Herausforderungen liegen, welche Lücken bestehen und was es braucht, um den Menschenrechtsschutz im Zeitalter der KI zu gewährleisten.
«Artikel Sieben» wird herausgegeben von humanrights.ch und produziert von podcastlab.ch. Die einzelnen Folgen sind in allen Podcastkanälen zu hören oder können auf dieser Seite direkt abgespielt werden.

