Immer informiert,
der AI-ACT auf
einen Blick
— seien Sie bestens vorbereitet auf die neuen Regelungen des AI-ACT. Diese Seite bietet Ihnen alle relevanten Informationen, die Sie benötigen, um die Anforderungen zu verstehen und einzuhalten.
Unser AI-ACT-Compliance Assistent nimmt sie an der Hand und geleitet sie sicher durch den Rechtsdschungel des EU-AI-Acts und unsere AI Governance Plattform sorgt dafür, dass sie auch laufend rechtssicher bleiben.
Unsere Kunden
Der EU AI-ACT ist ein Gesetz der Europäischen Union, das festlegt, wie Künstliche Intelligenz (KI) sicher und verantwortungsvoll eingesetzt werden soll. Es teilt KI-Systeme nach ihrem Risiko ein. Ziel des AI Act ist es, den Schutz der Menschen und die Transparenz im Umgang mit KI zu gewährleisten. Unternehmen müssen sicherstellen, dass ihre KI-Anwendungen den Regeln entsprechen, um Strafen zu vermeiden.
Probieren Sie unseren EU-AI-ACT Risk-Quick-Check und lassen Sie ganz einfach das Risiko Ihrer KI-Anwendung einschätzen.
DIe Lösung
KI sicher und fair gestalten!
Die EU steht vor der Herausforderung, Künstliche Intelligenz sicher und fair zu gestalten. KI wird immer mehr in wichtigen Bereichen eingesetzt, z. B. in der Medizin oder bei Entscheidungen durch Behörden. Der AI-ACT soll verhindern, dass KI Menschen schadet, Diskriminierung fördert oder intransparent arbeitet. Mit dem Gesetz will die EU sicherstellen, dass KI-Systeme sicher sind, den Menschen schützen und fair eingesetzt werden. Gleichzeitig soll es Innovationen fördern, ohne dabei die Sicherheit und ethische Standards zu vernachlässigen.
Diskrimminierung und Vorurteile
KI kann Vorurteile verstärken, wenn sie mit unfairen oder falschen Daten trainiert wird. Zum Beispiel kann sie Bewerber oder Menschen bei Krediten benachteiligen, wenn die Daten voreingenommen sind. Das führt zu Diskriminierung.
Fehlende Transparenz
Viele KI-Systeme sind schwer zu verstehen, weil sie komplexe Entscheidungen treffen, ohne dass Menschen genau wissen, wie. Das führt zu fehlender Transparenz und macht es schwierig, KI-Entscheidungen nachzuvollziehen.
Sicherheitsrisiken
KI-Systeme können in sicherheitskritischen Bereichen, wie bei selbstfahrenden Autos oder in der Medizin, Fehler machen. Solche Fehler können Menschen schaden, wenn sie zu falschen Entscheidungen oder Unfällen führen.
Der EU-AI-Act gilt auch für Organisationen außerhalb der EU, wenn sie KI-Systeme an EU-Verbraucher liefern. Das bedeutet, auch internationale Unternehmen müssen die Vorschriften einhalten.
DEADLINES
Der EU-AI-ACT kommt 2025 - handeln Sie jetzt.
Der EU-AI-ACT wird schrittweise eingeführt – hier sehen Sie die wichtigsten Termine bis zur Umsetzung bis zum Jahr 2027.
Gabriele Bolek-Fügl
CO-FOUNDER & CEO
Roadmap
Was muss man als Unternehmer beachten?
DEADLINE
Das KI-Gesetz ist am 01. August 2024 in Kraft getreten und wird zwei Jahre später in vollem Umfang anwendbar sein, mit einigen Ausnahmen:
- Verbote treten nach sechs Monaten in Kraft,
- die Governance-Regeln und die Verpflichtungen für KI-Modelle für allgemeine Zwecke treten nach zwölf Monaten in Kraft, und
- die Vorschriften für KI-Systeme, die in regulierte Produkte eingebettet sind, gelten nach 36 Monaten.
Übersicht und weiter Details finden Sie in unsere Timeline
RISIKOBEWERTUNG
Unternehmen müssen die potenziellen Risiken ihrer KI-Anwendungen sorgfältig analysieren. Dazu gehört, mögliche negative Auswirkungen auf Nutzer und die Gesellschaft zu bewerten. Diese Risikobewertung hilft, rechtzeitig Maßnahmen zu ergreifen, um Gefahren zu minimieren und sicherzustellen, dass die KI-Systeme verantwortungsvoll eingesetzt werden.
Unsere AI Governance Platform hilft Ihnen der AI Compliance Assistent
dabei, die Risiken Ihrer KI-Anwendungen ganz einfach zu bewerten. Sie unterstützt
Sie bei der Identifizierung und Überwachung potenzieller Gefahren, sodass Sie jederzeit sicher und verantwortungsvoll handeln können.
Technische Dokumentation
Unternehmen müssen eine technische Dokumentation ihrer KI-Anwendungen erstellen. Diese Dokumentation beschreibt genau, wie die KI funktioniert, welche Daten sie nutzt und welche Sicherheitsmaßnahmen ergriffen werden. Dies hilft, Transparenz zu schaffen und sicherzustellen, dass die KI den Anforderungen entspricht.
pAIper.one unterstützt Unternehmen bei der Erstellung der technischen Dokumentation für KI-Anwendungen.
Mit unserer AI Governance Platform werden alle wichtigen Informationen automatisch erfasst und übersichtlich dargestellt, sodass Unternehmen leicht die nötigen Nachweise und Berichte für den AI Act bereitstellen können.
Überwachung und Wartung
Unternehmen müssen ihre KI-Systeme ständig überwachen und regelmäßig warten. Das bedeutet, dass sie sicherstellen müssen, dass die KI richtig funktioniert, aktuelle Daten nutzt und auf dem neuesten Stand bleibt, um Risiken zu vermeiden und Sicherheitsanforderungen zu erfüllen.
pAIper.one hilft Unternehmen mit unserem AI Compliance Tracking bei der Überwachung und Wartung von KI-Systemen.
Die Plattform bietet kontinuierliche Updates und Warnungen, wenn Probleme durch Gesetzesänderungen auftreten, sodass Unternehmen ihre KI-Anwendungen stets sicher und auf dem neuesten Stand halten können.
Qualifikation Belegschaft
In Bezug auf die Belegschaft müssen Unternehmen laut Artikel 26 sicherstellen, dass ihre Mitarbeiter ausreichend geschult sind, um die KI-Systeme korrekt zu verstehen und zu bedienen. Dies umfasst Schulungen zur Funktionsweise, den Risiken und den rechtlichen Anforderungen der genutzten KI. Zudem müssen sie geeignete Sicherheitsmaßnahmen einführen, damit die KI-Anwendungen verantwortungsvoll und sicher genutzt werden. Die Belegschaft soll außerdem in der Lage sein, potenzielle Risiken zu erkennen und angemessen darauf zu reagieren.
pAIper.one unterstützt Unternehmen bei der Schulung ihrer Mitarbeiter für den sicheren Umgang mit KI-Systemen.
Die Plattform bietet gezielte Trainings und Informationen, damit die Belegschaft die Funktionsweise, Risiken und rechtlichen Vorgaben der KI versteht und potenzielle Gefahren frühzeitig erkennt.
Von der allgemeinen Belegschaftsschulung bis zum AI Compliance Officer bieten wir Workshops und Schulungen an um Ihr Unternehmen optimal auf den Umgang mit KI und dem AI-ACT vor zu bereiten.
KONSEQUENZEN
Das Nichteinhalten des EU-AI-ACT kann schwerwiegende finanzielle und rechtliche Konsequenzen haben.
- Hohe Geldstrafen: Bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes.
- Reputationsschäden: Verlust des Vertrauens bei Kunden und Partnern.
- Verkaufsverbote: Verbot, bestimmte KI-Systeme anzubieten oder zu nutzen.
- Rechtsstreitigkeiten: Potenzielle Klagen durch Betroffene.
- Wettbewerbsnachteile: Verlust von Marktchancen durch fehlende Compliance.
- Rückrufe/Anpassungen: Hohe Kosten für nachträgliche Korrekturen.
Unternehmen sollten sich frühzeitig mit dem AI Act auseinandersetzen, insbesondere wenn sie Hochrisiko-KI-Systeme nutzen oder anbieten. Diese Systeme müssen möglicherweise angepasst werden, zum Beispiel durch die Integration von Notfall-Mechanismen.
Eine Konformitätsbewertung ist dann nötig, um sicherzustellen, dass die Vorschriften eingehalten werden. Unternehmen, die KI von Drittanbietern verwenden, sollten diese Systeme prüfen und ihre eigenen Pflichten verstehen.
Die Anforderungen des AI Act sind umfassend, und eine rechtzeitige Vorbereitung ist entscheidend, um die Fristen einzuhalten.
Im Wesentlichen werden hier Anbieter von HochrisikoKI-Systemen in die Pflicht genommen, teilweise aber auch deren Betreiber. Manche Pflichten gelten zudem in Bezug auf GPAI. Beim Einsatz von KI-Systemen mit begrenztem oder minimalem Risiko bestehen im Wesentlichen Transparenzpflichten. So sieht Art. 50 AI Act beispielsweise vor, dass über den Einsatz von KI-Chatbots oder Deepfakes informiert werden muss.
Bei Verstößen gegen den AI Act drohen unterschiedliche Konsequenzen: n. Diese müssen „wirksam, verhältnismäßig und abschreckend“ sein (Art. 99 Abs. 1 S. 2 AI Act).
- Hohe Geldstrafen: Bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes für schwere Verstöße.
- Betriebsverbote: Bestimmte KI-Systeme dürfen nicht weiter betrieben werden.
- Strengere Kontrollen: Bei fehlender Dokumentation oder Nichteinhaltung der Regeln können zusätzliche Überprüfungen und Sanktionen folgen.
Es ist wichtig, die Anforderungen frühzeitig zu erfüllen, um diese Konsequenzen zu vermeiden.
Europäische Kommission
RISIKO KATEGORIEN
Was sind die Risikokategorien?
Je nach KI-Risikoklasse und Rolle des Akteurs gelten unterschiedliche Pflichten, hier muss genau in die einzelnen Normen hineingeschaut werden. Der AI Act verfolgt dabei einen risikobasierten Ansatz, d.h. mit steigendem Risiko steigen auch die gesetzlichen Pflichten.
Es sind insgesamt vier Risikoklassen vorgesehen, von unakzeptable über hohe und begrenzte bis hin zu minimalen Risiken.
Anwendungen oder KI-Systeme, die soziales Verhalten bewerten, Menschen beeinflussen oder ihre Schwächen ausnutzen und damit zu einer Benachteiligung oder Bedrohung dieser führen. Der Einsatz dieser Technologien ist verboten (mit Ausnahmen zu Strafverfolgungszwecken).
Als KI-Systeme mit unannehmbarem Risiko werden insbesondere die folgenden eingestuft:
- unterschwellige Beeinflussung
- Ausnutzung der Schwäche oder Schutzbedürftigkeit von Personen
- biometrische Kategorisierung
- Bewertung des sozialen Verhaltens
- biometrische Echtzeit-Fernidentifizierungssysteme
- Risikobeurteilung von natürlichen Personen
- Datenbanken zur Gesichtserkennung
- Ableitung von Emotionen natürlicher Personen
- Analyse von aufgezeichnetem Bildmaterial
Bei einem unannehmbaren Risiko sieht der AI Act ein Verbot des entsprechenden KI-Systems vor
Anwendungen, die nicht explizit verboten sind und ein hohes Risiko hinsichtlich der Grundrechte, Sicherheit und Gesundheit natürlicher Personen darstellen. Der Einsatz dieser Technologien ist durch umfangreiche Anforderungen im AI Act geregelt.
Als Hochrisiko-KI-System zählen:
- Biometrische Identifizierung
- Verwaltung und Betrieb kritischer Infrastrukturen (KRITIS)
- Allgemeine und berufliche Bildung
- Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit
- Zugänglichkeit und Inanspruchnahme grundlegender privater und öffentlicher Dienste und Leistungen (z. B. Wohnen, Strom, Heizung, Internet, Ärzte)
- Strafverfolgung
- Migration, Asyl und Grenzkontrolle
- Rechtspflege und demokratische Prozesse
KI-Systeme, die mit natürlichen Personen interagieren, müssen die betroffenen Personen darüber informieren (sogenannte „Transparenz- und Informationspflichten“).
Beispiele für KI-Systeme mit begrenztem Risiko sind etwa Chatbots, in die Stufe „minimales Risiko“ fallen hingegen etwa Suchalgorithmen, Computerspiele oder Spam-Filter.
Unternehmen die KI-Systeme einsetzen, welche nicht explizit den Anforderungen des AI Acts unterliegen, werden freiwillige Verhaltenskodizes nahegelegt, die den Einsatz von KI adäquat regeln sollen. Zusätzlich wird Unternehmen generell auferlegt, Mitarbeitende hinsichtlich KI zu schulen (Englisch „AI Literacy“).
Mit pAIper.one immer auf dem neuesten Stand
FAQ
- das für einen in wechselndem Maße autonomen Betrieb ausgelegt ist,
- das nach seiner Einführung anpassungsfähig sein kann und
- das aus den erhaltenen Eingaben Ergebnisse wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorbringt, die physische oder virtuelle Umgebungen beeinflussen können.
- unakzeptabel hohes Risiko (verbotene KI-Praktiken),
- hohes Risiko (Hochrisiko-KI-Systeme),
- begrenztes Risiko (KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind), und
- minimales und/oder kein Risiko (alle anderen KI-Systeme, die nicht in den Anwendungsbereich der KI-Verordnung fallen).
KI-Systeme, die kritische Entscheidungen treffen, wie z. B. in der Medizin, im Personalwesen oder in der öffentlichen Sicherheit, gelten als hochriskant.
Für KI-Systeme mit minimalem Risiko gibt es kaum Vorschriften. Unternehmen können freiwillig zusätzliche Sicherheitsmaßnahmen einführen.
Ein KI-Modell ist die Grundlage, auf der eine Künstliche Intelligenz (KI) arbeitet. Es handelt sich dabei um die Algorithmen und Datenstrukturen, die einer KI ermöglichen, zu lernen und Aufgaben zu erfüllen. Zum Beispiel ist GPT-4 ein solches Modell.
Ein KI-System nutzt ein KI-Modell, um konkrete Anwendungen zu ermöglichen. Ein Beispiel ist ChatGPT, das auf dem GPT-4-Modell basiert und als nutzbare Anwendung funktioniert.
Im AI Act wird meist das KI-System reguliert, da es die praktische Umsetzung der Technologie darstellt.
Ja, der EU-AI-ACT erlaubt in bestimmten Fällen Ausnahmen, insbesondere bei hochriskanten Anwendungen, wenn besondere Sicherheitsvorkehrungen getroffen werden.
Der EU-AI-ACT teilt KI-Systeme in vier Risikokategorien ein: minimal, begrenzt, hoch und unzulässig. Jede Kategorie hat unterschiedliche Anforderungen.
Ja, alle Unternehmen, die KI in der EU nutzen oder anbieten, müssen den EU-AI-ACT einhalten, unabhängig von ihrer Größe oder Branche.
Erstellen Sie eine technische Dokumentation, führen Sie Risikobewertungen durch und stellen Sie sicher, dass die Anwendung alle EU-AI-ACT-Vorgaben erfüllt.
Das hängt von der Komplexität ab, kann aber mehrere Monate dauern, je nachdem, wie viele Anpassungen und Dokumentationen nötig sind.
Daten über die Funktionsweise, Sicherheitsmaßnahmen und Risikobewertungen der KI-Anwendung müssen klar und vollständig dokumentiert sein.
Der EU-AI-ACT sorgt für mehr Sicherheit und Transparenz, was den Einsatz von KI sicherer macht, aber auch strenge Regeln für Entwickler festlegt.
Branchen wie Gesundheit, Verkehr, Personalwesen und öffentliche Sicherheit sind am stärksten vom EU-AI-ACT betroffen, da sie oft mit hochriskanten KI-Systemen arbeiten.
Die Risikobewertung sollte regelmäßig erfolgen, besonders bei Änderungen der KI-Anwendung oder neuer Gesetzgebung.
Sie müssen sicherstellen, dass diese KI-Systeme den Anforderungen des EU-AI-ACT entsprechen und sicher verwendet werden.
Nationale Behörden in jedem EU-Land überwachen die Einhaltung des EU-AI-ACT und führen Kontrollen durch.
Darum pAIper.one - Die umfassende Software und Begleitung zum EU-AI-ACT
Mit pAIper.one bieten wir spezialisierte digitale Softwareprodukte zur Einhaltung der gesetzlichen Anforderungen (AI-ACT) im Bereich Künstliche Intelligenz. Unsere Softwarelösungen, die AI-ACT Governance Platform, AI-ACT Compliance Assistant und AI-ACT Compliance Community helfen Unternehmen, sich sicher im AI-ACT Rechtsrahmen zu bewegen. Zusätzlich zu unseren digitalen Produkten bieten wir gemeinsam mit unseren Partnern und Rechtsanwälten themenspezifische Workshops und Schulungen an. Diese werden ausschließlich über die AI-ACT Compliance Community angeboten.
Made in Austria