🎄 Menschenrechte unter Druck: Was ich mir vom Christkind für die KI-Zukunft wünsche

eine Analyse von Carina Zehetmaier

Am 10. Dezember 2025 (dem Internationalen Tag der Menschenrechte) zeichnete der UN-Menschenrechtskommissar Volker Türk – der höchstrangige Österreicher bei den Vereinten Nationen – ein alarmierendes Bild der Lage:

„Human rights. Underfunded. Undermined. Under attack.“ 

„Menschenrechte. Unterfinanziert. Untergraben. Unter Beschuss.“

75 Jahre nach Verabschiedung der Allgemeinen Erklärung der Menschenrechte stehen grundlegende Rechte unter beispiellosem Druck. Selbst in Europa geraten erkämpfte Schutzmechanismen ins Wanken. So hat der Europarat am Tag der Menschenrechte eine Debatte über Änderungen der Europäischen Menschenrechtskonvention gestartet. 27 von 46 Mitgliedstaaten – darunter Österreich – fordern eine „Weiterentwicklung“ der EMRK, die laut Expert:innen faktisch auf eine Aufweichung zentraler Garantien wie des Folterverbots hinausläuft. Gleichzeitig arbeitet die EU mit Hochdruck daran, ihre digitalen Gesetzeswerke zu überarbeiten – mit Folgen für den Grundrechtsschutz.

Ein „Digital Omnibus“-Reformpaket der EU-Kommission, das im November 2025 präsentiert wurde, soll KI- und Datenschutz-Regeln „vereinfachen“. Kritiker warnen jedoch, die Vorschläge kämen einer massiven Aufweichung der Datenschutz-Grundverordnung (DSGVO) und des EU AI Act gleich. Geplant ist etwa, die Auflagen für „hochriskante“ KI-Systeme von 2026 auf Ende 2027 zu verschieben, eine Ausnahme von der Pflicht zur Registrierung von Hochrisiko-KI-Systemen in einer EU-Datenbank, wenn bestimmte Bedingungen erfüllt werden, und die Nutzung von Bürger:innendaten zum Training von KI-Modellen zu erleichtern. Eine Koalition von 133 NGOs und Gewerkschaften fordert die Europäische Kommission auf, den geplanten Digital Omnibus zu stoppen. Sie warnen, dass die Vorschläge den größten Rückschritt bei digitalen Grundrechten in der Geschichte der Europäischen Union darstellen. Der Vorwurf: Die Kommission würde dem Druck der US-Regierung und großer Tech-Konzerne nachzugeben.

Kurzum: Die Ausgangslage Ende 2025 ist düster. Menschenrechte werden weltweit ausgehöhlt, europäische Regierungen stellen fundamentale Schutzversprechen in Frage, und selbst die EU – eigentlich Vorreiterin strenger Digitalgesetze – erwägt erhebliche Zugeständnisse bei Datenschutz und KI-Regulierung. Was bedeutet das für den Einsatz Künstlicher Intelligenz? Wie wirken sich diese Entwicklungen auf unsere digitalen Grund- und Menschenrechte aus?

Künstliche Intelligenz und Grundrechte: Aktuelle Herausforderungen

KI durchdringt immer mehr Lebensbereiche – von sozialen Medien über Personalentscheidungen bis zur Strafverfolgung. Damit wachsen die Gefahren für grundlegende Rechte. Einige Problemfelder in der Übersicht:

  • Diskriminierung durch Algorithmen: Automatisierte Entscheidungssysteme können Menschen systematisch benachteiligen. Untersuchungen zeigen etwa, dass KI-gestützte Bewerbungssoftware Bewerber*innen aufgrund vergangener Datensätze aussortiert und so Chancengleichheit am Arbeitsmarkt untergräbt.
  • Überwachung und Privatsphäre: KI-betriebene Überwachungstechnologien bedrohen das Recht auf ein privates, selbstbestimmtes Leben. Insbesondere der Einsatz von Gesichtserkennung im öffentlichen Raum ermöglicht eine lückenlose Nachverfolgung unserer Bewegungen und Begegnungen. Dies hat gravierende Folgen für die Privatsphäre sowie die Bewegungs- und Versammlungsfreiheit.
  • Transparenz und Rechenschaft: Ob bei Kreditscoring, Versicherungen, Jobvermittlung – immer häufiger entscheiden Algorithmen über unsere Teilhabe an Gesellschaft und Wirtschaft mit. Doch die Funktionsweise vieler KI-Systeme ist intransparent. Diese Blackbox-Entscheidungen stellen das Recht auf ein faires Verfahren und wirksame Rechtsmittel vor neue Herausforderungen. Fehlende Erklärbarkeit und mangelnde Rechenschaftspflicht erschweren es, falsche oder diskriminierende Ergebnisse anzufechten
  • Meinungs- und Informationsfreiheit: Algorithmen sozialer Netzwerke filtern unser Nachrichten- und Informationsangebot und können so ungewollt Echokammern oder extremistische Dynamiken begünstigen. Personalisierte Feeds verstärken bestimmte Ansichten, während andere Stimmen untergehen, was die freie Meinungsbildung manipulieren kann. KI-getriebene Trolle, Bots und sogar künstliche „Influencer“ beeinflussen die öffentliche Meinung und gefährden damit in weiterer Folge die Demokratie. Das Ergebnis ist ein toxisches Umfeld, in dem viele Angehörige marginalisierter Gruppen verstummen oder die Plattformen verlassen – faktisch also zum Schweigen gebracht werden. Staatliche Überwachung trägt ein Übriges bei.

 

Diese Beispiele zeigen: Ohne wirksame Leitplanken verletzt KI schnell unsere Grundrechte – sei es das Recht auf Gleichbehandlung, Privatheit, faire Verfahren oder freie Meinungsäußerung. Doch wie können wir gegensteuern? Hier kommt das Christkind ins Spiel – sprich: unsere Wünsche und Forderungen für eine menschenwürdige Zukunft mit KI.

Meine Wünsche für eine menschenzentrierte KI

Angesichts der aktuellen Lage formuliere ich meinen weihnachtlichen Wunschzettel für Politik, Wirtschaft und Gesellschaft. Was müsste geschehen, damit KI im nächsten Jahr und darüber hinaus zum Wohl der Menschheit statt zu ihrer Bedrohung beiträgt?

  • Aus der Geschichte lernen: Ich wünsche mir, dass wir die Lehren aus der Vergangenheit beherzigen und begreifen, wie schnell Errungenschaften verloren gehen können. Die Menschenrechtsidee entstand als Antwort auf die Abgründe des 20. Jahrhunderts – auf Krieg, Holocaust und Totalitarismus. Diese Geschichte darf sich nicht in neuer Form mit Algorithmen wiederholen. Wenn KI zur Überwachung und potentiellen Unterdrückung eingesetzt wird oder wenn Profitstreben vor Menschenwürde geht, müssen wir laut Stopp sagen.
    Mein Wunsch ist, dass wir in der Gestaltung von KI-Systemen aktiv die Fehler der Vergangenheit vermeiden. Dazu gehört z. B., diskriminierende Praktiken nicht durch automatisierte Systeme zu zementieren und zu verstärken, oder neue Überwachungstechnik nicht ohne wirksame Kontrolle einzuführen. Die Geschichte lehrt uns, dass Freiheit und Menschenrechte erkämpft und ständig verteidigt werden müssen – auch im Digitalen.
  • KI als Lupe statt Zerrspiegel: Ich sage in jedem meiner Vorträge:”KI ist kein Hammer, sondern „ein Spiegel unserer Gesellschaft“, der unsere Vorurteile und Denkmuster reflektiert. Tatsächlich reproduzieren maschinelle Lernmodelle verzerrte Daten und damit auch die darin steckenden gesellschaftlichen Bias. Doch KI kann mehr als spiegeln: Richtig eingesetzt, wird sie zur Lupe, die uns Missstände klarer vor Augen führt. Mein Wunsch ist, dass KI-Systeme genutzt werden, um Ungerechtigkeiten sichtbar zu machen, anstatt sie bloß zu verstärken. Wenn Algorithmen z. B. feststellen, dass Frauen in bestimmten Berufen systematisch schlechter bewertet werden, dann sollten wir diese Erkenntnis nehmen, um bewusst gegen Vorurteile vorzugehen – und nicht einfach den Algorithmus weiter diskriminieren lassen. KI schafft Sichtbarkeit und Messbarkeit: Diskriminierung, die bei menschlichen Entscheidungen oft versteckt oder verdrängt bleibt, wird durch algorithmische Analysen sichtbar und messbar.
    Kurz: KI soll nicht bloß die verzerrte Realität reproduzieren, sondern uns helfen, die Zukunft zu gestalten, die uns allen bestmöglich gerecht wird.
  • Verantwortungsvolle KI-Governance und befähigte Menschen: Ich wünsche mir, dass Organisationen – seien es Unternehmen, Behörden oder Bildungseinrichtungen – Verantwortung für den KI-Einsatz übernehmen. In der Praxis heißt das: Es braucht klare Governance-Strukturen, um sicherzustellen, dass Gesetze, ethische Prinzipien und Standards eingehalten werden. Unternehmen sollten Compliance nicht als Bürde, sondern als Chance verstehen, die basierend auf den Werten der Organisation klare Spielregeln vorgibt und so Vertrauen für die Belegschaft und die Kund:innen schafft. Dazu müssen sie auch in ihre Belegschaft investieren. Jede Mitarbeiterin und jeder Mitarbeiter sollte die Möglichkeit erhalten, sich im Bereich KI weiterzubilden – vom Fachpersonal bis zur Führungsebene. Die digitale Transformation gelingt nicht top-down, sondern nur gemeinsam.
    Mein Wunsch: mehr Investment in die KI-Kompetenzen der Belegschaft, zum Beispiel mit unseren Ausbildungsprogrammen zum AI Compliance Officer oder KI-Manager. Denn KI-Kompetenz gehört in alle Abteilungen, nicht nur zur IT. Wenn die Menschen im Unternehmen verstehen, wie KI funktioniert und worauf es ankommt, können sie Ängste abbauen und kreativ mitgestalten. Letztlich ist das der Schlüssel, um Innovation und Grundrechtsschutz unter einen Hut zu bringen.
  • Diversität und Interdisziplinarität fördern: Eine vertrauenswürdige KI entsteht nur, wenn möglichst vielfältige Perspektiven in ihre Entwicklung und Kontrolle einfließen. KI-Systeme sind komplexe soziotechnische Systeme – ein Zusammenspiel von Technik, Daten, menschlichen Entscheidungen und gesellschaftlichen Kontexten. Entsprechend brauchen wir interdisziplinäre Teams, in denen Informatiker:innen mit Ethiker:innen, Jurist:innen, Soziolog:innen und vielen anderen zusammenarbeiten. Ich wünsche mir, dass Vielfalt zur Grundbedingung in KI-Projekten wird. Dazu gehört auch Diversität in Bezug auf Gender, Herkunft, Alter und Erfahrungshintergrund. Nur wenn unterschiedliche Lebensrealitäten repräsentiert sind, bauen wir Vorurteile gar nicht erst ein. Derzeit dominieren oft privilegierte Gruppen (etwa westliche, männliche Entwickler) die KI-Branche – das muss sich ändern.
    Mein Wunsch: Expertinnen aus allen Disziplinen und Communities sollen ermutigt werden, bei KI mitzuwirken, statt sich abschrecken zu lassen. Eure Stimme, Eure Erfahrung wird gebraucht! Gerade kreative Querdenker:innen können innovative Lösungen für komplexe KI-Probleme finden. Diversität ist kein „nice-to-have“, sondern essentiell, um KI-Systeme fair, robust und menschenzentriert zu gestalten.
  • Ab August 2026 müssen Betreiber bestimmter Hochrisiko-KI-Systeme eine Grundrechte-Folgenabschätzung (GRFA) durchführen. Und nun zu meinem letzten Wunsch: Lasst uns doch die Grundrechte-Folgenabschätzungen als Standard etablieren! Und jede Einführung wichtiger KI-Systeme als Teil unseres Qualitätsmanagements und unserer Risikobewertung von vornherein auf Auswirkungen auf die Grundrechte überprüfen. Dieses Instrument – ähnlich einer Umweltverträglichkeitsprüfung, aber für Menschenrechte – sollte zum Best Practice für alle KI-Projekte werden, nicht nur dort, wo es gesetzlich vorgeschrieben ist. Eine GRFA bedeutet, systematisch zu analysieren: Wen könnte das KI-System benachteiligen? Welche Rechte werden tangiert? Und vor allem: Wie lassen sich Risiken mindern? Wenn Unternehmen und Behörden solche Prüfungen frühzeitig vornehmen, erkennen sie potentielle Probleme, bevor der Schaden entsteht. Das schützt die Betroffenen und bewahrt die Organisation selbst vor Imageschäden, Haftung und Vertrauensverlust.
    Grundrechte-Folgeabschätzungen sollten nicht als bürokratischer Aufwand gesehen werden, sondern als Chance für Qualitätssicherung und Innovation. Sie zwingen uns, über den Tellerrand zu schauen und sozial nachhaltig zu handeln und vielleicht auch unseren Kundenkreis zu öffnen, indem wir nicht nur auf die primären Zielgruppen achten, sondern die potentiell Betroffenen mitnehmen. Mein Wunsch ist, dass Grund- und Menschenrechte von Anfang an in jedem KI-Projekt mitgedacht werden – dann profitieren wir alle.
Wenn diese Wünsche in Erfüllung gehen, kann KI zu einem Instrument werden, das unsere Gesellschaft gerechter, sicherer und menschlicher macht. Die Technologie alleine ist weder gut noch böse – wir müssen durch kluge Rahmenbedingungen und couragiertes Handeln dafür sorgen, dass unsere Werte und Rechte gewahrt bleiben. In diesem Sinne: Lassen wir uns vom Christkind Mut, Weitsicht und Entschlossenheit schenken, um KI im Jahr 2026 und darüber hinaus im Sinne der Menschlichkeit zu gestalten.
Literaturverzeichnis

OHCHR (2025): Pressekonferenz zum Tag der Menschenrechte 2025 – Volker Türk, 10. Dezember 2025ohchr.org.

ORF (2025): „Europarat startet Debatte zu EMRK-Änderung“ – ORF.at, 10. Dezember 2025orf.atorf.at.

Reuters (2025a): „EU eases AI, privacy rules as critics warn of caving to Big Tech“ – Bericht vom 19. November 2025reuters.comreuters.comreuters.com.

CSO Online (2025): „EU-Kommission will DSGVO für KI und Cookie-Tracking lockern“ – News-Analyse vom 11. November 2025csoonline.com.

AlgorithmWatch CH (2025): „Wie sich der Einsatz von Algorithmen & KI auf unsere Grundrechte auswirkt“ – Artikel vom 10. Dezember 2025algorithmwatch.chalgorithmwatch.chalgorithmwatch.chalgorithmwatch.ch.

ENNHRI (2024): „Key human rights challenges of AI“ – Europäisches Netzwerk der Menschenrechtsinstitutionen (ENNHRI)ennhri.orgennhri.orgennhri.org.

Verfassungsblog (2025): „Musk, Techbrocracy, and Free Speech“ – Beitrag vom 17. Januar 2025verfassungsblog.de.

Reuters (2025b): „US social media requirements for foreign visitors could have ‚chilling effect‘ on travel“ – Bericht vom 15. Dezember 2025reuters.comreuters.com.

WEF (2023): „Why AI bias may be easier to fix than humanity’s“ – World Economic Forum, 30. Juni 2023weforum.org.

Women in AI Austria (2023): „AI as complex sociotechnical systems – Problems, approaches and reflections“ – White Paper, 30. September 2023womeninai.atwomeninai.at.

Dr. Datenschutz (2025): „Grundrechte-Folgenabschätzung: Was steckt hinter Art. 27 KI-VO?“ – Blogbeitrag, 30. Juli 2025dr-datenschutz.de.

CRIF hat einen „Score“ zu fast jedem in Österreich. noyb braucht deine Hilfe für eine potentielle Sammelklage

Related Posts

Wollen sie erfahren, welche Auswirkungen der EU-AI-ACT auf Ihren Arbeitsalltag hat, dann treten Sie unserer AI-ACT Community bei.

Darum pAIper.one - Die umfassende Software und Begleitung zum EU-AI-ACT

Mit pAIper.one bieten wir spezialisierte digitale Softwareprodukte zur Einhaltung der gesetzlichen Anforderungen (AI-ACT) im Bereich Künstliche Intelligenz. Unsere Softwarelösungen, die AI-ACT Governance Platform, AI-ACT Compliance Assistant und AI-Education Community helfen Unternehmen, sich sicher im AI-ACT Rechtsrahmen zu bewegen. Zusätzlich zu unseren digitalen Produkten bieten wir gemeinsam mit unseren Partnern und Rechtsanwälten themenspezifische Workshops und Schulungen an. Diese werden ausschließlich über die AI Education Community angeboten.

Made in Austria

DE