Immer informiert,
der AI-ACT auf
einen Blick

— seien Sie bestens vorbereitet auf die neuen Regelungen des AI-ACT. Diese Seite bietet Ihnen alle relevanten Informationen, die Sie benötigen, um die Anforderungen zu verstehen und einzuhalten. 

Unser AI-ACT-Compliance Assistent nimmt sie an der Hand und geleitet sie sicher durch den Rechtsdschungel des EU-AI-Acts und unsere AI Governance Plattform sorgt dafür, dass sie auch laufend rechtssicher bleiben.

Unsere Kunden

Der EU AI-ACT ist ein Gesetz der Europäischen Union, das festlegt, wie Künstliche Intelligenz (KI) sicher und verantwortungsvoll eingesetzt werden soll. Es teilt KI-Systeme nach ihrem Risiko ein. Ziel des AI Act ist es, den Schutz der Menschen und die Transparenz im Umgang mit KI zu gewährleisten. Unternehmen müssen sicherstellen, dass ihre KI-Anwendungen den Regeln entsprechen, um Strafen zu vermeiden.

Probieren Sie unseren EU-AI-ACT Risk-Quick-Check und lassen Sie ganz einfach das Risiko Ihrer KI-Anwendung einschätzen.

DIe Lösung

KI sicher und fair gestalten!

Die EU steht vor der Herausforderung, Künstliche Intelligenz sicher und fair zu gestalten. KI wird immer mehr in wichtigen Bereichen eingesetzt, z. B. in der Medizin oder bei Entscheidungen durch Behörden. Der AI-ACT soll verhindern, dass KI Menschen schadet, Diskriminierung fördert oder intransparent arbeitet. Mit dem Gesetz will die EU sicherstellen, dass KI-Systeme sicher sind, den Menschen schützen und fair eingesetzt werden. Gleichzeitig soll es Innovationen fördern, ohne dabei die Sicherheit und ethische Standards zu vernachlässigen.

Diskrimminierung und Vorurteile

KI kann Vorurteile verstärken, wenn sie mit unfairen oder falschen Daten trainiert wird. Zum Beispiel kann sie Bewerber oder Menschen bei Krediten benachteiligen, wenn die Daten voreingenommen sind. Das führt zu Diskriminierung.

Fehlende Transparenz

Viele KI-Systeme sind schwer zu verstehen, weil sie komplexe Entscheidungen treffen, ohne dass Menschen genau wissen, wie. Das führt zu fehlender Transparenz und macht es schwierig, KI-Entscheidungen nachzuvollziehen.

Sicherheitsrisiken

KI-Systeme können in sicherheitskritischen Bereichen, wie bei selbstfahrenden Autos oder in der Medizin, Fehler machen. Solche Fehler können Menschen schaden, wenn sie zu falschen Entscheidungen oder Unfällen führen.

Der EU-AI-Act gilt auch für Organisationen außerhalb der EU, wenn sie KI-Systeme an EU-Verbraucher liefern. Das bedeutet, auch internationale Unternehmen müssen die Vorschriften einhalten.

DEADLINES

Der EU-AI-ACT kommt 2025 - handeln Sie jetzt.

Der EU-AI-ACT wird schrittweise eingeführt – hier sehen Sie die wichtigsten Termine bis zur Umsetzung bis zum Jahr 2027.

EU AI Act Zeitplan (Stand: Juli 2024)
2021
21. Apr. 2021
EU-Kommission schlägt den AI Act vor
2024
02. Aug. 2024
Inkrafttreten des Gesetzes
2025
02. Mai 2025
Verhaltenskodizes finden Anwendung
02. Aug. 2025
Governance-Regeln und Verpflichtungen für General Purpose AI (GPAI) werden anwendbar
2026
02. Aug. 2026
Beginn der Anwendung des EU AI Acts für KI-Systeme (inklusive Anhang III)
2027
02. Aug. 2027
Anwendung des gesamten EU AI Acts für alle Risikokategorien (inklusive Anhang II)
Unsere Lösungen sind umfassend: Wir bieten nicht nur einzelne Tools, sondern ein ganzes Paket, damit unsere Kunden echte Experten werden. So können wir gemeinsam wachsen und uns weiterentwickeln.

Gabriele Bolek-Fügl
CO-FOUNDER & CEO

Roadmap

Was muss man als Unternehmer beachten?

Hier finden Sie die wichtigsten Fristen für die Umsetzung der neuen Vorschriften. Diese Termine sind entscheidend, um sicherzustellen, dass Ihre KI-Systeme rechtzeitig angepasst werden. Verpassen Sie eine Deadline, können rechtliche und finanzielle Konsequenzen drohen, die sich auf den Betrieb Ihrer KI-Anwendungen auswirken.

DEADLINE

Das KI-Gesetz ist am 01. August 2024 in Kraft getreten und wird zwei Jahre später in vollem Umfang anwendbar sein, mit einigen Ausnahmen:

  • Verbote treten nach sechs Monaten in Kraft,
  • die Governance-Regeln und die Verpflichtungen für KI-Modelle für allgemeine Zwecke treten nach zwölf Monaten in Kraft, und
  • die Vorschriften für KI-Systeme, die in regulierte Produkte eingebettet sind, gelten nach 36 Monaten.

 

Übersicht und weiter Details finden Sie in unsere Timeline

RISIKOBEWERTUNG

Unternehmen müssen die potenziellen Risiken ihrer KI-Anwendungen sorgfältig analysieren. Dazu gehört, mögliche negative Auswirkungen auf Nutzer und die Gesellschaft zu bewerten. Diese Risikobewertung hilft, rechtzeitig Maßnahmen zu ergreifen, um Gefahren zu minimieren und sicherzustellen, dass die KI-Systeme verantwortungsvoll eingesetzt werden. 

Batch zum AI-Compliance-Assistent

Unsere AI Governance Platform hilft Ihnen der AI Compliance Assistent 

dabei, die Risiken Ihrer KI-Anwendungen ganz einfach zu bewerten. Sie unterstützt

Sie bei der Identifizierung und Überwachung potenzieller Gefahren, sodass Sie jederzeit sicher und verantwortungsvoll handeln können.

Technische Dokumentation

Unternehmen müssen eine technische Dokumentation ihrer KI-Anwendungen erstellen. Diese Dokumentation beschreibt genau, wie die KI funktioniert, welche Daten sie nutzt und welche Sicherheitsmaßnahmen ergriffen werden. Dies hilft, Transparenz zu schaffen und sicherzustellen, dass die KI den Anforderungen entspricht.


pAIper.one unterstützt Unternehmen bei der Erstellung der technischen Dokumentation für KI-Anwendungen.

Mit unserer AI Governance Platform werden alle wichtigen Informationen automatisch erfasst und übersichtlich dargestellt, sodass Unternehmen leicht die nötigen Nachweise und Berichte für den AI Act bereitstellen können.

Überwachung und Wartung

Unternehmen müssen ihre KI-Systeme ständig überwachen und regelmäßig warten. Das bedeutet, dass sie sicherstellen müssen, dass die KI richtig funktioniert, aktuelle Daten nutzt und auf dem neuesten Stand bleibt, um Risiken zu vermeiden und Sicherheitsanforderungen zu erfüllen.

pAIper.one hilft Unternehmen mit unserem AI Compliance Tracking bei der Überwachung und Wartung von KI-Systemen.

Die Plattform bietet kontinuierliche Updates und Warnungen, wenn Probleme durch Gesetzesänderungen auftreten, sodass Unternehmen ihre KI-Anwendungen stets sicher und auf dem neuesten Stand halten können.

Qualifikation Belegschaft

In Bezug auf die Belegschaft müssen Unternehmen laut Artikel 26 sicherstellen, dass ihre Mitarbeiter ausreichend geschult sind, um die KI-Systeme korrekt zu verstehen und zu bedienen. Dies umfasst Schulungen zur Funktionsweise, den Risiken und den rechtlichen Anforderungen der genutzten KI. Zudem müssen sie geeignete Sicherheitsmaßnahmen einführen, damit die KI-Anwendungen verantwortungsvoll und sicher genutzt werden. Die Belegschaft soll außerdem in der Lage sein, potenzielle Risiken zu erkennen und angemessen darauf zu reagieren.

pAIper.one unterstützt Unternehmen bei der Schulung ihrer Mitarbeiter für den sicheren Umgang mit KI-Systemen.

Die Plattform bietet gezielte Trainings und Informationen, damit die Belegschaft die Funktionsweise, Risiken und rechtlichen Vorgaben der KI versteht und potenzielle Gefahren frühzeitig erkennt.

Von der allgemeinen Belegschaftsschulung bis zum AI Compliance Officer bieten wir Workshops und Schulungen an um Ihr Unternehmen optimal auf den Umgang mit KI und dem AI-ACT vor zu bereiten.

KONSEQUENZEN

Das Nichteinhalten des EU-AI-ACT kann schwerwiegende finanzielle und rechtliche Konsequenzen haben.

  • Hohe Geldstrafen: Bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes.
  • Reputationsschäden: Verlust des Vertrauens bei Kunden und Partnern.
  • Verkaufsverbote: Verbot, bestimmte KI-Systeme anzubieten oder zu nutzen.
  • Rechtsstreitigkeiten: Potenzielle Klagen durch Betroffene.
  • Wettbewerbsnachteile: Verlust von Marktchancen durch fehlende Compliance.
  • Rückrufe/Anpassungen: Hohe Kosten für nachträgliche Korrekturen.
Die Europäische Kommission stellte fest, dass der AI Act dazu entwickelt wurde, „sicherzustellen, dass in der EU entwickelte und genutzte KI vertrauenswürdig ist, mit Schutzmaßnahmen zur Wahrung der Grundrechte der Menschen“, wobei besonders der Schutz von Gesundheit, Sicherheit und Rechten betont wird

Europäische Kommission

RISIKO KATEGORIEN

Was sind die Risikokategorien?

Je nach KI-Risikoklasse und Rolle des Akteurs gelten unterschiedliche Pflichten, hier muss genau in die einzelnen Normen hineingeschaut werden. Der AI Act verfolgt dabei einen risikobasierten Ansatz, d.h. mit steigendem Risiko steigen auch die gesetzlichen Pflichten.

Es sind insgesamt vier Risikoklassen vorgesehen, von unakzeptable über hohe und begrenzte bis hin zu minimalen Risiken.

UNSERE PARTNER

Mit pAIper.one immer auf dem neuesten Stand

– Entdecken Sie alle wichtigen Einblicke zum EU AI Act und gestalten Sie Ihre KI-Strategie sicher und zukunftsorientiert.

FAQ

  • das für einen in wechselndem Maße autonomen Betrieb ausgelegt ist,
  • das nach seiner Einführung anpassungsfähig sein kann und
  • das aus den erhaltenen Eingaben Ergebnisse wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorbringt, die physische oder virtuelle Umgebungen beeinflussen können.
  • unakzeptabel hohes Risiko (verbotene KI-Praktiken),
  • hohes Risiko (Hochrisiko-KI-Systeme),
  • begrenztes Risiko (KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind), und
  • minimales und/oder kein Risiko (alle anderen KI-Systeme, die nicht in den Anwendungsbereich der KI-Verordnung fallen).

KI-Systeme, die kritische Entscheidungen treffen, wie z. B. in der Medizin, im Personalwesen oder in der öffentlichen Sicherheit, gelten als hochriskant.

Für KI-Systeme mit minimalem Risiko gibt es kaum Vorschriften. Unternehmen können freiwillig zusätzliche Sicherheitsmaßnahmen einführen.

Ein KI-Modell ist die Grundlage, auf der eine Künstliche Intelligenz (KI) arbeitet. Es handelt sich dabei um die Algorithmen und Datenstrukturen, die einer KI ermöglichen, zu lernen und Aufgaben zu erfüllen. Zum Beispiel ist GPT-4 ein solches Modell.

Ein KI-System nutzt ein KI-Modell, um konkrete Anwendungen zu ermöglichen. Ein Beispiel ist ChatGPT, das auf dem GPT-4-Modell basiert und als nutzbare Anwendung funktioniert.

Im AI Act wird meist das KI-System reguliert, da es die praktische Umsetzung der Technologie darstellt.

Ja, der EU-AI-ACT erlaubt in bestimmten Fällen Ausnahmen, insbesondere bei hochriskanten Anwendungen, wenn besondere Sicherheitsvorkehrungen getroffen werden.

Der EU-AI-ACT teilt KI-Systeme in vier Risikokategorien ein: minimal, begrenzt, hoch und unzulässig. Jede Kategorie hat unterschiedliche Anforderungen.

Ja, alle Unternehmen, die KI in der EU nutzen oder anbieten, müssen den EU-AI-ACT einhalten, unabhängig von ihrer Größe oder Branche.

Erstellen Sie eine technische Dokumentation, führen Sie Risikobewertungen durch und stellen Sie sicher, dass die Anwendung alle EU-AI-ACT-Vorgaben erfüllt.

Das hängt von der Komplexität ab, kann aber mehrere Monate dauern, je nachdem, wie viele Anpassungen und Dokumentationen nötig sind.

Daten über die Funktionsweise, Sicherheitsmaßnahmen und Risikobewertungen der KI-Anwendung müssen klar und vollständig dokumentiert sein.

Der EU-AI-ACT sorgt für mehr Sicherheit und Transparenz, was den Einsatz von KI sicherer macht, aber auch strenge Regeln für Entwickler festlegt.

Branchen wie Gesundheit, Verkehr, Personalwesen und öffentliche Sicherheit sind am stärksten vom EU-AI-ACT betroffen, da sie oft mit hochriskanten KI-Systemen arbeiten.

Die Risikobewertung sollte regelmäßig erfolgen, besonders bei Änderungen der KI-Anwendung oder neuer Gesetzgebung.

Sie müssen sicherstellen, dass diese KI-Systeme den Anforderungen des EU-AI-ACT entsprechen und sicher verwendet werden.

Nationale Behörden in jedem EU-Land überwachen die Einhaltung des EU-AI-ACT und führen Kontrollen durch.

Darum pAIper.one - Die umfassende Software und Begleitung zum EU-AI-ACT

Mit pAIper.one bieten wir spezialisierte digitale Softwareprodukte zur Einhaltung der gesetzlichen Anforderungen (AI-ACT) im Bereich Künstliche Intelligenz. Unsere Softwarelösungen, die AI-ACT Governance Platform, AI-ACT Compliance Assistant und AI-ACT Compliance Community helfen Unternehmen, sich sicher im AI-ACT Rechtsrahmen zu bewegen. Zusätzlich zu unseren digitalen Produkten bieten wir gemeinsam mit unseren Partnern und Rechtsanwälten themenspezifische Workshops und Schulungen an. Diese werden ausschließlich über die AI-ACT Compliance Community angeboten.

Made in Austria