PaiperOne NEWSLETTER #1
Exklusive KI-Insights mit PaiperOne

Die Zukunft beginnt jetzt – mit dem PaiperOne-Newsletter

Mit unserem ersten Newsletter starten wir eine neue Reise: Wir wollen zeigen, wie Künstliche Intelligenz, Compliance und digitaler Humanismus zusammengehören – und warum genau jetzt der richtige Zeitpunkt ist, diese Themen ernst zu nehmen!

Ab sofort teilen wir regelmäßig: praktische Tools und Alltagstipps, Impulse für Führungskräfte und Teams, kreative Use Cases sowie praxisnahe Einblicke in die Umsetzung des EU AI Acts.

Doch bevor wir loslegen, möchten wir euch fragen:

Welche Fragen rund um KI beschäftigen euch am meisten? 

  • Risks: Wie erkenne, bewerte und ordne ich KI-Risiken ein?
  • Compliance: Wie bleibt meine Organisation gesetzeskonform?
  • Zukunft der Arbeit: Welche Jobs, Kompetenzen und Bildungswege braucht die Zukunft?
  • Best Practices: Was ist der Schlüssel für ein erfolgreiches KI-Projekt?

Schreibt uns in die Kommentare oder eine DM – eure Impulse fließen direkt in die nächsten Ausgaben ein. 

Wir freuen uns, diesen Weg gemeinsam mit euch zu gehen.

Herzlich,
Carina & Gabi
Gründerinnen von PaiperOne GmbH

 

CLOSING THE GAP

Ein Kommentar von Carina Zehetmaier

Europa braucht keine größere KI – sondern die verantwortungsvollste.
Milliarden fließen in KI-Förderung, doch die entscheidende Frage lautet: Wollen wir nur aufholen – oder wollen wir es besser machen? Carina Zehetmaier zeigt, warum Europas Stärke in Werten, Standards und Vielfalt liegt. Und weshalb gut gemachte AI-Compliance nicht nur Pflicht ist, sondern ein Wettbewerbsvorteil.

Europa investiert massiv in Künstliche Intelligenz – endlich. Milliardenprogramme, Regulierungsrahmen wie der EU AI Act, Forschungsförderung und neue Public-Private-Partnerschaften zeigen: Wir haben erkannt, dass wir technologisch aufholen müssen. Aber während wir die Lücke zu den USA und China messen, sollten wir uns eine ehrlichere Frage stellen:

Wollen wir überhaupt das Gleiche bauen – oder wollen wir es besser machen?

Denn das sogenannte „AI Gap“ ist mehr als ein technologischer Rückstand. Es ist ein strukturelles Problem. Und es betrifft nicht nur Rechenzentren oder Trainingsdaten, sondern unsere digitale Souveränität, unsere Kompetenzverteilung und unser Verständnis von Verantwortung.

Wir brauchen keine größeren Modelle – wir brauchen souveräne im Einklang mit unseren Werten.

Die USA dominieren den KI-Markt durch enorme Mengen an Risikokapital und Investitionen, während China auf staatliche Steuerung und Kontrolle setzt. Beide profitieren von einem nahezu unbegrenzten Zugriff auf riesige Datenmengen. Europa hingegen hat etwas, das beide nicht in dieser Form haben: ein Wertefundament. Menschenrechte. Datenschutz. Rechtsstaatlichkeit.

Aber diese Werte brauchen technische Entsprechung. Sonst bleiben sie Papiertiger. Es reicht nicht, amerikanische Modelle zu regulieren – wir müssen unsere eigenen bauen. Souveräne, transparente, branchenspezifische, kontrollierbare KI. Nicht die größte – sondern die verantwortungsvollste.

Ich bin pro Innovation, pro Technologieoffenheit – aber genau deswegen auch für eine Regulierung. Jetzt zählt die Umsetzung!

Der EU AI Act ist ein Meilenstein – weltweit einzigartig. Aber Regulierung ohne Standards, ohne Tools, ohne Kompetenzaufbau ist wirkungslos. Wir brauchen keine neuen Prinzipien, sondern konkrete Werkzeuge für die Praxis:

  • auditierbare Modelle,
  • verständliche Risikobewertungen,
  • Rollen- und Prozessklarheit in Unternehmen.

Deshalb haben wir bei PaiperOne GmbH eine Plattform entwickelt, die Unternehmen sicher durch den Dschungel der Regulierung führt – und gleichzeitig die strategische Chance darin sichtbar macht. Denn gut gemachte AI-Compliance ist nicht nur eine Pflicht, sondern ein Wettbewerbsvorteil.

Vielfalt ist kein Nebenprojekt – sie ist die Grundlage für vertrauenswürdige KI.

Als frühere Präsidentin von Women in AI Austria sage ich ganz klar: Wir können keine KI entwickeln, die die ganze Gesellschaft betrifft, wenn sie nur von einem kleinen Teil der Gesellschaft gestaltet wird.

Wir brauchen:

  • mehr Frauen in Tech,
  • mehr Interdisziplinarität in KI-Teams,
  • mehr kritische Stimmen am Tisch – und zwar von Anfang an.

Diversität ist kein Nice-to-have – sie ist eine Voraussetzung für robuste, faire, erklärbare KI.

Kompetenz ist die neue Infrastruktur.

Wenn wir wollen, dass KI in Europa funktioniert – dann müssen wir Menschen befähigen. In Unternehmen. In Behörden. In der Bildung. KI-Kompetenz darf nicht im Elfenbeinturm der Forschung bleiben. Sie muss in die Breite.

Deshalb bilden wir bei PaiperOne GmbH nicht nur Developer, sondern Führungskräfte, Compliance-Officer, Public Sector Leader aus – und geben ihnen das Wissen und die Werkzeuge, um KI nicht nur zu nutzen, sondern zu verantworten und ihre Teams, Organisationen und Firmen entsprechend zu steuern.

Mein Fazit: Europa darf nicht kopieren. Europa muss führen.

Nicht durch Masse. Sondern durch Qualität. Nicht durch Anpassung. Sondern durch Gestaltung.
Wenn wir es schaffen, Werte, Standards und wirtschaftliche Umsetzung in Einklang zu bringen, schaffen ein europäisches Modell von KI, das global relevant ist – und zukunftsfähig.

„Souveränität heißt nicht, alles selbst zu machen. Sondern zu wissen, was man selbst kontrollieren muss.“

Die Unvermeidlichkeit von Halluzinationen in KI-Modellen

Ein Kommentar von Gabriele Bolek-Fügl

Ein neuer OpenAI-Forschungsbericht zeigt: Halluzinationen sind kein vermeidbarer Fehler, sondern tief in der Architektur großer Sprachmodelle verankert. Gabriele Bolek-Fügl erklärt, warum KI lieber „rät“ statt zu schweigen, weshalb das systembedingt so bleibt – und was das für den praktischen Einsatz bedeutet.

Vor kurzem hat OpenAI einen neuen Forschungsbericht veröffentlicht, der sehr deutlich macht: Halluzinationen bei großen Sprachmodellen werden bleiben. Nicht weil Entwickler*innen Fehler machen, sondern weil sie tief in der Architektur, dem Training und den Bewertungsverfahren von aktuell verwendeten KI-Modellen verwurzelt sind. Der Bericht „Why Language Models Hallucinate“ liefert die technische Grundlage für diese Einsicht. 

Was diese Forschung konkret herausfindet

Der Kern des Berichts ist, dass Sprachmodelle manchmal bewusst falsche Aussagen machen oder genauer: sie verharren nicht im Zustand „Ich weiß es nicht“, sondern „rate“. Das überraschende daran – es wird voraussichtlich auch so bleiben. Dies hängt mit mehreren Elementen des gesamten Lernprozesses zusammen:

  1. Training & Evaluierung: Modelle werden mit riesigen Mengen an Texten vortrainiert, aber es wird nicht klar gekennzeichnet, was wahr und was falsch ist. Modelle lernen also, wie Sprache typischerweise verläuft (‚next-word prediction‘), aber nicht Fakten zu bestätigen oder zu widerlegen.
  2. Belohnungssysteme beim Testen: In den Bewertungen (Benchmark-Tests etc.) werden Modelle dann dafür belohnt, eine Antwort zu geben, auch wenn sie unsicher sind, anstatt offen zuzugeben „Ich weiß es nicht“. Denn Schweigen oder das Eingeständnis von Unwissen wird oft meist gar nicht gewertet, während ein „Raten“ zumindest die Chance auf Punkte bietet.
    Das erinnert mich irgendwie an meine eigene Schulzeit. Da war es auch besser im Test “irgendeine” Antwort zu geben und zumindest auf Teilpunkte zu hoffen.
  3. Statistische Grundlagen: Der Bericht argumentiert weiter, dass Halluzinationen strukturell aus Fehlern in binärer Klassifikation entstehen. Es gibt plausible Strings (Antworten), die gültig erscheinen, manchmal valide sein mögen, aber schlicht nicht wahr sind. Wenn das Modell hier nicht sicher unterscheiden kann, weil die Trainingsdaten bspw. unvollständig sind oder widersprüchliche Quellen enthalten, entstehen zwangsläufig Fehler.

 

Forschungsdesign in Kürze

Damit das nicht abstrakt bleibt, folgt ein Blick darauf, wie OpenAI die Untersuchung vorgenommen hat, wie und warum Halluzinationen entstehen:

  1. Formalisierte Modelle & theoretische Analyse
    Der Bericht geht über rein empirische Beobachtungen hinaus: Er nutzt Konzepte aus der computational learning theory (z. B. aus der Theorie der binären Klassifikation), um zu zeigen, dass selbst unter sehr idealisierten Bedingungen (z. B. fehlerfreie Trainingsdaten) ein gewisser Halluzinationsanteil unvermeidbar ist, weil Modelle probabilistische Vorhersagen treffen.
    Solange KI-Modelle also nach diesem Grundprinzip arbeiten, wird es immer eine Restwahrscheinlichkeit geben, dass die gewählte Fortsetzung nicht der Realität entspricht. Halluzinationen sind daher kein vorübergehender “Bug”, sondern ein inhärentes Nebenprodukt dieser verwendeten Methodik – ein systemimmanentes “Feature”, das sich nie vollständig ausmerzen lässt.
  2. Empirische Beispiele & Benchmarks
    Parallel wurden realistische Tests verwendet, z. B. einfache Fakten-check-Aufgaben. Das sind Fragen, deren Antworten öffentlich bekannt, aber nicht in jedem Fall sauber reproduzierbar sind.
    Beispiel: Fragen nach dem Geburtstag einer bekannten Person, wobei in verschiedenen Durchgängen inkonsistente falsche Daten erzeugt wurden – selbst wenn die Frage nur beantwortet werden sollte, wenn das Modell sich sicher ist.
  3. Untersuchung der Bewertungs-/Belohnungsmechanismen
    Wie werden Modelle beurteilt? Welche Metriken zählen? Hier beschreibt der Bericht, wie bestehende Benchmarks und Leaderboards sich oft nur auf Trefferquote (Accuracy) fokussieren und wie Modelle dadurch „lernen“, lieber zu raten als zu schweigen.
    Der Bericht schlägt vor, Bewertungsmethoden so zu verändern, dass Unsicherheit und „Nichtwissen“ belohnt werden und nicht nur richtige Antworten.

 

Warum halluzinieren also technisch verankert ist

Wenn man all das zusammennimmt, ergibt sich folgendes Bild:

  • Die Modelle wurden dafür entwickelt, sprachlich kohärent zu sein, plausible Fortsetzungen zu liefern und nicht primär dafür, die Wahrheit zu garantieren.
  • Selbst mit perfekt kuratierten Trainingsdaten und großem Modellumfang gibt es Fakten, die kaum oder nur einmal in diesen Daten enthalten sind („Low-frequency facts“), oder solche, die sich ändern. Modelle haben keinen direkten Zugriff darauf, was „gerade aktuell wahr“ ist, und schlagen daher das vor, was wahrscheinlich ist.
  • Bewertungsanreize und Trainingsziele verstärken das Rate-Verhalten, weil „keine Antwort“ oder „Unsicherheit“ oft nicht als Erfolg gewertet wird.

Mein FAZIT

Solange KI-Modelle so konstruiert sind, dass sie Vorhersagen basierend auf Sprachmustern erstellen und die Benotung darauf basiert, wie oft sie richtig liegen, wird eine gewisse Rate an Halluzinationen bestehen bleiben.

Wenn die Hersteller also Fortschritte anpreisen oder Hoffnungen auf eine absolut fehlerfreie KI schüren, sollte man aufmerksam bleiben. In der Realität zeigt sich, dass zwar die Häufigkeit von Halluzinationen technisch reduziert werden kann, Unsicherheiten transparenter dargestellt werden könnten und Modelle so kalibriert werden können, dass sie besser wissen, wenn sie etwas nicht wissen. Aber ein tieferes, vollständiges Verschwinden der Halluzination ist nach heutigem Stand der Forschung bei den derzeit eingesetzten Methoden kein realistisches Ziel.

Details unter: https://openai.com/de-DE/index/why-language-models-hallucinate/ 

Future of Jobs: KI ersetzt nicht nur keine Jobs – aber die Kompetenzen ändern sich

Ein Kommentar von Carina Zehetmaier

Nicht die KI ersetzt den Menschen – der Mensch ohne KI-Kompetenzen wird ersetzt. Routinen verschwinden, während Analyse, Kreativität und soziale Intelligenz immer wichtiger werden. Die Zukunft der Arbeit ist keine Zukunft der Maschinen – sondern eine Zukunft, in der menschliche Kompetenz entscheidet.

Die Debatte über Künstliche Intelligenz wird oft von Angst beherrscht: Wie viele Jobs fallen weg? Wer wird zuerst verdrängt – Kassierer:innen, Fahrer:innen oder sogar Ärzt:innen und Jurist:innen?

Die Schlagzeilen sind dramatisch, und die Statistiken geben ihnen recht – teilweise. Laut McKinsey werden bis 2030 ca. 27 % der jetzigen Arbeitszeit in Europa und ca. 30 % in den USA vollständig automatisiert (McKinsey). Das World Economic Forum rechnet bis 2030 mit dem Wegfall von 92 Millionen Arbeitsplätzen weltweit. Gleichzeitig entstehen aber 170 Millionen neue Stellen – vor allem in Pflege, Bildung, Green Jobs, IT und Bau. Das ergibt einen Nettozuwachs von 78 Millionen Jobs. Es geht also nicht nur um einen möglichen Jobverlust. Es geht um eine tiefgreifende Verschiebung von Tätigkeiten. Wiederkehrende Aufgaben werden an Maschinen verlagert, während Kompetenzen wie Analysen, Kreativität und soziale Intelligenz immer wichtiger werden.

Das eigentliche Risiko: fehlende Kompetenzen

Das World Economic Forum zeigt klar: Das größte Hindernis für Transformation sind nicht die Maschinen, sondern wir selbst. 63 % der Unternehmen nennen fehlende Kompetenzen als größte Barriere für den Wandel von 2025 bis 2030 (WEF, Future of Jobs 2025). Heute werden noch 47 % der Aufgaben von Menschen allein erledigt, 22 % von Maschinen und 30 % gemeinsam. Bis 2030 erwarten Arbeitgeber eine fast gleichmäßige Verteilung – ein Drittel Mensch, ein Drittel Maschine, ein Drittel Zusammenarbeit.  (WEF, Future of Jobs 2025)
Das bedeutet: Wer nicht die Fähigkeit entwickelt, mit KI zu arbeiten, sie zu hinterfragen und verantwortungsvoll einzusetzen, verliert. Nicht die KI ersetzt den Menschen – sondern der Mensch ohne KI-Kompetenzen wird durch eine kompetente Person ersetzt.

Europa: Zwischen Angst und Führung

Für Europa ist diese Entwicklung ein Lackmustest. Wir können uns im Angstmodus verlieren oder wir können gestalten. Die Arbeitsrealität ist in Europa eine gänzlich andere als in Asien oder den USA, daher können wir diese Modelle nicht einfach kopieren. Wenn wir sollten auf unsere Stärken setzen – Bildung, Vielfalt, Menschenrechte, soziale Marktwirtschaft. Damit können wir zeigen: KI ist nicht nur eine Produktivitätsmaschine, sondern ein Werkzeug für digitale Souveränität und gesellschaftlichen Fortschritt.

 

Fazit

Die Frage ist nicht, ob KI Jobs ersetzt.
Die Frage ist, ob wir die Kompetenzen entwickeln, die den Unterschied machen: kritisches Denken, Resilienz, Kreativität, digitale Souveränität. Ohne Angst vor der Digitalisierung sondern mit dem Vertrauen in unsere Systeme und Vorgehensweisen. 

Die Zukunft der Arbeit ist keine Zukunft der Maschinen.
Sie ist eine Zukunft, in der menschliche Kompetenz entscheidet, ob wir überrollt werden – oder führen.

Thailand Stand, im Vordergrund 2 Cocktails

KI around the World: Grüße aus Thailand
Wenn KI den Kellnerjob turbo-boostet

von Gabriele Bolek-Fügl

Gabriele Bolek-Fügl nimmt uns mit nach Thailand, wo KI den Kellnerjob smarter macht: Bestellungen werden einfach ins Smartphone diktiert – schneller, inklusiver und überraschend elegant.

Sawasdee aus Koh Samui! Während ich unter Palmen einen eiskalten Thai Iced Tea schlürfe, möchte ich Euch erzählen, wie KI im Alltag manchmal ganz unspektakulär und gleichzeitig genial daherkommt.

Im kleinen Strandrestaurant, in dem wir gestern zu Abend gegessen haben, zückt der Kellner kein Notizbuch und auch kein “altmodisches” Order-Tablet. Stattdessen nutzt er einfach sein Smartphone und diktiert die Bestellung mündlich. Kein umständliches Tippen, kein Rätselraten bei komplizierten Gerichten.

Im Hintergrund läuft ein KI-Agent, der das Gesagte in Echtzeit erkennt und automatisch mit der digitalen Speisekarte abgleicht. Innerhalb von Sekunden findet er den richtigen Pad-Thai-Eintrag, samt Extras wie „europäisch scharf“ oder „ohne Erdnüsse“.

Das hat Charme auf mehreren Ebenen:

  • Barrierefrei: Menschen mit Lese- oder Schreibschwäche können den Job problemlos ausüben.
  • Sprachvielfalt? Kein Problem! Auch ausländische Servicekräfte, die sich noch in die thailändische Schrift einarbeiten, werden nicht ausgebremst.
  • Ratzfatz: Die Bestellung ist schneller im System, als ich „Som Tam“ sagen kann. Denn die meisten Menschen reden schneller als sie schreiben.

 

Mein Fazit: KI muss gar nicht futuristisch aussehen, um den Arbeitsalltag smarter zu machen. 

Manchmal reicht ein Smartphone und ein cleverer Agent und schon hat die klassische Bestellung à la „Zettel und Stift“ ausgedient.

 

Bis zum nächsten KI-Fundstück aus KI around the World!
Ich geh jetzt erstmal mein Pad Thai genießen. 🥢🌴

(Dieser Text wurde von mir zusammen mit ChatGPT generiert – ist also ein echter KI-Urlaubsgruß.)

Prompting für Profis: Praktische Prompt-Hacks für Jurist:innen, Compliance Officers und Auditor:innen

Ein Beitrag von Sanja Cancar

Von Prompt-Optimierung über das L.E.G.A.L.-Framework bis hin zu Prompt Chaining: Sanja Cancar zeigt praktische Hacks, mit denen Jurist:innen, Compliance Officer und Auditor:innen bessere Ergebnisse erzielen – sicher, effizient und praxisnah.

Inzwischen haben wohl die meisten von uns schon Erfahrung damit gesammelt, Prompts zu schreiben. Wer schon einmal eine komplexe rechtliche Frage, einen Compliance-Fall oder ein Audit-Szenario an ein Sprachmodell übergeben hat, weiß: Gute Ergebnisse hängen stark von der Art und Weise ab, wie man fragt. Die besten Tipps gibt’s natürlich in der PaiperOne-Schulung – dort lernt man das Handwerkszeug von Grund auf.

Aber seien wir ehrlich: Es gibt immer noch den einen oder anderen Hack, der einen echten Unterschied macht. Tricks, die neue Perspektiven eröffnen, die Qualität der Antworten erhöhen oder die Arbeit spürbar erleichtern. Wir haben ein paar solcher – unserer Meinung nach – besten Tipps herausgepickt, die euch direkt im Arbeitsalltag weiterhelfen können.

Die Quellen zu unseren Inspirationen findet ihr am Ende des Artikels. Und: Wir freuen uns riesig, wenn ihr eure eigenen Tipps und Tricks mit uns teilt!

Tipp 1: Optimize for GPT-5 – Lass das Modell deinen Prompt verbessern

Ein kleiner, aber mächtiger Hack: Lass den Prompt direkt vom LLM optimieren. Klingt simpel, wird aber erstaunlich selten genutzt – dabei kann es die Qualität und Präzision der Ergebnisse erheblich steigern.

Beispiel: Original-Prompt:

„Draft a checklist for auditing and monitoring compliance program effectiveness.“

Anstatt direkt auf die Antwort zu warten, kann man den Prompt Optimizer von GPT-5 fragen. Das Modell liefert dann eine optimierte Version, die oft präziser, strukturierter und praxisnäher ist – quasi wie ein Mentor, der den Prompt feinschleift. So spart man Zeit, reduziert Nacharbeiten und bekommt schneller hochwertige Ergebnisse.

Optimierter Prompt:

Screenshot vom Output

Vergleicht man das Ergebnis des Original-Prompts mit dem Ergebnis der verbesserten Variante, spricht die Qualität für sich.

Tipp 2: Teste das L.E.G.A.L. Prompt-Framework

Ein strukturierter Prompt liefert bessere Antworten, spart Zeit, sorgt für verlässlichere Ergebnisse und reduziert Missverständnisse. Für Juristen ist ein besonders hilfreicher Ansatz das Legal-Prompt-Framework L.E.G.A.L., das speziell dafür entwickelt wurde, komplexe rechtliche Aufgaben effizient zu strukturieren.

Das Framework im Überblick:

  • L – Lay the Role: Definiere die Rolle klar, z. B. „Du bist ein Compliance Officer im Bankwesen.“
  • E – Establish the Context: Liefere Fakten, Rechtsprechung, Jurisdiktion und beteiligte Stakeholder.
  • G – Guide the Task: Beschreibe genau, welche Aufgabe erledigt werden soll, z. B. Vertragsprüfung, Risikoanalyse oder Audit-Checkliste.
  • A – Ask for Structure: Gib das gewünschte Format vor – z. B. Tabelle, Bullet Points, Schritt-für-Schritt-Anleitung.
  • L – Legal Guardrails: Fordere die KI auf, potenzielle Probleme zu identifizieren, Lücken zu erkennen und professionelle Prüfungen vorzunehmen.

Mit dieser Methode kann man komplexe Anfragen in präzise, klare Anweisungen umwandeln – ideal für rechtliche Analysen, Vertragsprüfungen oder Compliance-Aufgaben.

Tipp 3: Prompt Chaining für komplexe rechtliche Analysen

Komplexe juristische Aufgaben lassen sich oft am besten in schrittweise aufeinander aufbauende Prompts gliedern – eine Methode, die als Prompt Chaining bekannt ist. Dabei wird der Output eines Prompts als Input für den nächsten Prompt genutzt. Dies erhöht die Präzision und Nachvollziehbarkeit, insbesondere bei Due-Diligence-Prüfungen, Compliance-Analysen oder Vertragsprüfungen.

Wichtig: Jeder Prompt sollte logisch auf dem vorherigen aufbauen, sodass die KI verknüpfte Aufgaben besser versteht und konsistente Ergebnisse liefert.

Beispiel: Prompt Chaining für die Überprüfung eines Arbeitsvertrags

Ziel: Risiken und Verbesserungsmöglichkeiten im Arbeitsvertrag identifizieren, strukturiert analysieren und Handlungsempfehlungen ableiten.

  • Initialer Prompt – Vertragsklauseln identifizieren:
    „Liste alle wichtigen Klauseln im beigefügten Arbeitsvertrag auf, z. B. Probezeit, Kündigungsfristen, Wettbewerbsverbote, Vergütung, Urlaub, Nebentätigkeit und Geheimhaltungspflichten.“
    1. Follow-up Prompt – Risikoanalyse:
      „Analysiere die zuvor identifizierten Klauseln auf mögliche Risiken für den Arbeitnehmer und Arbeitgeber nach aktuellem deutschen Arbeitsrecht.“
    2. Follow-up Prompt – Optimierungsvorschläge:
      „Schlage konkrete Änderungen oder Ergänzungen vor, um die identifizierten Risiken zu minimieren, z. B. klarere Formulierungen oder rechtlich sichere Regelungen.“
    3. Follow-up Prompt – Vergleich mit Best Practices:
      „Vergleiche die Klauseln mit üblichen Best Practices in der Branche und nenne Abweichungen oder fehlende Standardregelungen.“
  • Finaler Prompt – Zusammenfassung und Handlungsempfehlungen:
    „Fasse die Ergebnisse zusammen und erstelle eine übersichtliche Checkliste mit allen Risiken, Optimierungsvorschlägen und Empfehlungen für die Vertragsverhandlung.“

Durch diesen Ansatz lassen sich komplexe rechtliche Prüfungen effizient strukturieren, Schwachstellen gezielt identifizieren und fundierte Handlungsempfehlungen ableiten.

Tipp 4: Lass dich auf deine Gefühle ein – Vibe Prompting

Vibe Coding ist in aller Munde, aber kennt ihr schon Vibe Prompting? Hier findet ihr sogar einen superschnellen, kostenlosen Kurs dazu: Vibe Prompting.

Die Grundidee: Moderne LLMs werden immer besser darin, Menschen zu verstehen. Anstatt mit abstrakten Konzepten zu arbeiten, geht es darum, Ton, Rhythmus und Emotion zu vermitteln und, wie sich etwas anfühlen soll, statt Funktionen exakt vorzugeben. Man arbeitet mit Intuition und lässt sich stärker vom eigenen Gefühl leiten. Bleibt beim Prozess, benutzt natürliche Sprache (besonders effektiv: Spracheingabe!) und experimentiert abwechselnd mit verschiedenen Modellen.

Wem das zu esoterisch nach Meditationsklängen und Chakras klingt, hat nicht Unrecht. Einen Versuch ist es aber wert. Wo man jedenfalls Abstand von dieser Methode nehmen sollte sind Kontexte, die einen viel strukturierteren Ansatz benötigen, wie: 

  • sicherheitskritische Systeme, in denen Präzision unverzichtbar ist
  • hochspezialisierte, technische Aufgaben mit klarer Methodik
  • Szenarien, in denen konsistente, reproduzierbare Ergebnisse gebraucht werden
  • Situationen, in denen ihr und die KI keine gemeinsamen kulturellen Bezugspunkte teilt

Tipp 5: Sei aufmerksam, kritisch und auf der Hut – Datenschutz, Verifikation und Grenzen der KI

Der wichtigste Grundsatz bei der Arbeit mit generativen KI-Systemen für Jurist:innen und Compliance-Profis lautet: Vorsicht ist Pflicht. KI kann ein mächtiges Werkzeug sein, ersetzt aber niemals professionelle Sorgfalt und fundierte juristische Prüfung.

  1. Vertraulichkeit wahren:
    • Nie sensible Mandanteninformationen, vertrauliche Kommunikation oder personenbezogene Daten in öffentliche KI-Tools eingeben.
    • Stattdessen anonymisierte Fakten oder hypothetische Szenarien nutzen.
    • Für besonders vertrauliche Aufgaben eignen sich Enterprise-KI-Lösungen mit Datenschutzvereinbarungen.
  2. Ergebnisse kritisch überprüfen
    • KI kann plausibel klingende, aber falsche Informationen liefern („Halluzinationen“).
    • Immer rechtliche Recherchen, Gesetzestexte und Fakten unabhängig prüfen.
  3. Jurisdiktion beachten:
    • Relevante Rechtsordnung im Prompt immer klar definieren.
    • Österreichische Gesetze, Verordnungen, Gerichtsbarkeit und Präzedenzfälle unterscheiden sich erheblich von Deutschland, der Schweiz oder internationalen Standards. Eine generative KI kennt diese Unterschiede (noch) nicht!
    • Fachterminologie gezielt einsetzen und lokale Begriffe nutzen. Die Verwendung der korrekten Begriffe erhöht die Präzision der KI-Ergebnisse und reduziert Missverständnisse.
    • Internationale Konzepte auf Englisch belassen (z. B. „compliance risk assessment“).

      Beispiel: „Analysiere die Kündigungsfristen für eine Altbauwohnung in Wien nach österreichischem Recht unter Berücksichtigung der Judikatur des OGH.“

  4. Iterativ arbeiten:
    • Prompts verfeinern, Nachfragen stellen oder Kontext ergänzen – Schritt für Schritt zu präzisen Antworten.
  5. Keine Rechtsberatung:
    • KI-Ergebnisse sind nicht als Rechtsberatung zu verstehen.

KI ist ein Hilfsmittel und ersetzt keine professionelle Prüfung und Sorgfaltspflicht!

🔗 Quellen und weitere Ressourcen:

Ein Klick, ein Aha-Moment

– probier’s aus!

Das Beste aus Veranstaltungen, Informationen,
Blogs & Podcasts in einer Übersicht.

Unsere nächste AI Compliance Officer
Schulung startet am 10. Oktober – jetzt anmelden und Platz sichern!

Anmeldung zum NewsFeed
Mit unserem Newsletter von Paiper.one bleibst du auf dem Laufenden: von aktuellen Blogbeiträgen bis hin zu den Themen, die in der Fachwelt gerade Wellen schlagen. Wir erklären dir wichtige Begriffe aus KI und Governance einfach und verständlich, geben dir Tipps zu Veranstaltungen und teilen exklusive Freebies. Außerdem erfährst du aus erster Hand, woran wir gerade arbeiten und was als Nächstes kommt. Melde dich jetzt an und sichere dir Monat für Monat Wissen, das dich wirklich weiterbringt.“
DE