Die Zukunft beginnt jetzt – mit dem PaiperOne-Newsletter
Mit unserem ersten Newsletter starten wir eine neue Reise: Wir wollen zeigen, wie Künstliche Intelligenz, Compliance und digitaler Humanismus zusammengehören – und warum genau jetzt der richtige Zeitpunkt ist, diese Themen ernst zu nehmen!
Ab sofort teilen wir regelmäßig: praktische Tools und Alltagstipps, Impulse für Führungskräfte und Teams, kreative Use Cases sowie praxisnahe Einblicke in die Umsetzung des EU AI Acts.
Doch bevor wir loslegen, möchten wir euch fragen:
Welche Fragen rund um KI beschäftigen euch am meisten?
Schreibt uns in die Kommentare oder eine DM – eure Impulse fließen direkt in die nächsten Ausgaben ein.
Wir freuen uns, diesen Weg gemeinsam mit euch zu gehen.
Herzlich,
Carina & Gabi
Gründerinnen von PaiperOne GmbH
Ein Kommentar von Carina Zehetmaier
Europa braucht keine größere KI – sondern die verantwortungsvollste.
Milliarden fließen in KI-Förderung, doch die entscheidende Frage lautet: Wollen wir nur aufholen – oder wollen wir es besser machen? Carina Zehetmaier zeigt, warum Europas Stärke in Werten, Standards und Vielfalt liegt. Und weshalb gut gemachte AI-Compliance nicht nur Pflicht ist, sondern ein Wettbewerbsvorteil.
Europa investiert massiv in Künstliche Intelligenz – endlich. Milliardenprogramme, Regulierungsrahmen wie der EU AI Act, Forschungsförderung und neue Public-Private-Partnerschaften zeigen: Wir haben erkannt, dass wir technologisch aufholen müssen. Aber während wir die Lücke zu den USA und China messen, sollten wir uns eine ehrlichere Frage stellen:
Wollen wir überhaupt das Gleiche bauen – oder wollen wir es besser machen?
Denn das sogenannte „AI Gap“ ist mehr als ein technologischer Rückstand. Es ist ein strukturelles Problem. Und es betrifft nicht nur Rechenzentren oder Trainingsdaten, sondern unsere digitale Souveränität, unsere Kompetenzverteilung und unser Verständnis von Verantwortung.
Wir brauchen keine größeren Modelle – wir brauchen souveräne im Einklang mit unseren Werten.
Die USA dominieren den KI-Markt durch enorme Mengen an Risikokapital und Investitionen, während China auf staatliche Steuerung und Kontrolle setzt. Beide profitieren von einem nahezu unbegrenzten Zugriff auf riesige Datenmengen. Europa hingegen hat etwas, das beide nicht in dieser Form haben: ein Wertefundament. Menschenrechte. Datenschutz. Rechtsstaatlichkeit.
Aber diese Werte brauchen technische Entsprechung. Sonst bleiben sie Papiertiger. Es reicht nicht, amerikanische Modelle zu regulieren – wir müssen unsere eigenen bauen. Souveräne, transparente, branchenspezifische, kontrollierbare KI. Nicht die größte – sondern die verantwortungsvollste.
Ich bin pro Innovation, pro Technologieoffenheit – aber genau deswegen auch für eine Regulierung. Jetzt zählt die Umsetzung!
Der EU AI Act ist ein Meilenstein – weltweit einzigartig. Aber Regulierung ohne Standards, ohne Tools, ohne Kompetenzaufbau ist wirkungslos. Wir brauchen keine neuen Prinzipien, sondern konkrete Werkzeuge für die Praxis:
Deshalb haben wir bei PaiperOne GmbH eine Plattform entwickelt, die Unternehmen sicher durch den Dschungel der Regulierung führt – und gleichzeitig die strategische Chance darin sichtbar macht. Denn gut gemachte AI-Compliance ist nicht nur eine Pflicht, sondern ein Wettbewerbsvorteil.
Vielfalt ist kein Nebenprojekt – sie ist die Grundlage für vertrauenswürdige KI.
Als frühere Präsidentin von Women in AI Austria sage ich ganz klar: Wir können keine KI entwickeln, die die ganze Gesellschaft betrifft, wenn sie nur von einem kleinen Teil der Gesellschaft gestaltet wird.
Wir brauchen:
Diversität ist kein Nice-to-have – sie ist eine Voraussetzung für robuste, faire, erklärbare KI.
Kompetenz ist die neue Infrastruktur.
Wenn wir wollen, dass KI in Europa funktioniert – dann müssen wir Menschen befähigen. In Unternehmen. In Behörden. In der Bildung. KI-Kompetenz darf nicht im Elfenbeinturm der Forschung bleiben. Sie muss in die Breite.
Deshalb bilden wir bei PaiperOne GmbH nicht nur Developer, sondern Führungskräfte, Compliance-Officer, Public Sector Leader aus – und geben ihnen das Wissen und die Werkzeuge, um KI nicht nur zu nutzen, sondern zu verantworten und ihre Teams, Organisationen und Firmen entsprechend zu steuern.
Nicht durch Masse. Sondern durch Qualität. Nicht durch Anpassung. Sondern durch Gestaltung.
Wenn wir es schaffen, Werte, Standards und wirtschaftliche Umsetzung in Einklang zu bringen, schaffen ein europäisches Modell von KI, das global relevant ist – und zukunftsfähig.
„Souveränität heißt nicht, alles selbst zu machen. Sondern zu wissen, was man selbst kontrollieren muss.“
Ein Kommentar von Gabriele Bolek-Fügl
Ein neuer OpenAI-Forschungsbericht zeigt: Halluzinationen sind kein vermeidbarer Fehler, sondern tief in der Architektur großer Sprachmodelle verankert. Gabriele Bolek-Fügl erklärt, warum KI lieber „rät“ statt zu schweigen, weshalb das systembedingt so bleibt – und was das für den praktischen Einsatz bedeutet.
Vor kurzem hat OpenAI einen neuen Forschungsbericht veröffentlicht, der sehr deutlich macht: Halluzinationen bei großen Sprachmodellen werden bleiben. Nicht weil Entwickler*innen Fehler machen, sondern weil sie tief in der Architektur, dem Training und den Bewertungsverfahren von aktuell verwendeten KI-Modellen verwurzelt sind. Der Bericht „Why Language Models Hallucinate“ liefert die technische Grundlage für diese Einsicht.
Was diese Forschung konkret herausfindet
Der Kern des Berichts ist, dass Sprachmodelle manchmal bewusst falsche Aussagen machen oder genauer: sie verharren nicht im Zustand „Ich weiß es nicht“, sondern „rate“. Das überraschende daran – es wird voraussichtlich auch so bleiben. Dies hängt mit mehreren Elementen des gesamten Lernprozesses zusammen:
Forschungsdesign in Kürze
Damit das nicht abstrakt bleibt, folgt ein Blick darauf, wie OpenAI die Untersuchung vorgenommen hat, wie und warum Halluzinationen entstehen:
Warum halluzinieren also technisch verankert ist
Wenn man all das zusammennimmt, ergibt sich folgendes Bild:
Solange KI-Modelle so konstruiert sind, dass sie Vorhersagen basierend auf Sprachmustern erstellen und die Benotung darauf basiert, wie oft sie richtig liegen, wird eine gewisse Rate an Halluzinationen bestehen bleiben.
Wenn die Hersteller also Fortschritte anpreisen oder Hoffnungen auf eine absolut fehlerfreie KI schüren, sollte man aufmerksam bleiben. In der Realität zeigt sich, dass zwar die Häufigkeit von Halluzinationen technisch reduziert werden kann, Unsicherheiten transparenter dargestellt werden könnten und Modelle so kalibriert werden können, dass sie besser wissen, wenn sie etwas nicht wissen. Aber ein tieferes, vollständiges Verschwinden der Halluzination ist nach heutigem Stand der Forschung bei den derzeit eingesetzten Methoden kein realistisches Ziel.
Details unter: https://openai.com/de-DE/index/why-language-models-hallucinate/
Ein Kommentar von Carina Zehetmaier
Nicht die KI ersetzt den Menschen – der Mensch ohne KI-Kompetenzen wird ersetzt. Routinen verschwinden, während Analyse, Kreativität und soziale Intelligenz immer wichtiger werden. Die Zukunft der Arbeit ist keine Zukunft der Maschinen – sondern eine Zukunft, in der menschliche Kompetenz entscheidet.
Die Debatte über Künstliche Intelligenz wird oft von Angst beherrscht: Wie viele Jobs fallen weg? Wer wird zuerst verdrängt – Kassierer:innen, Fahrer:innen oder sogar Ärzt:innen und Jurist:innen?
Die Schlagzeilen sind dramatisch, und die Statistiken geben ihnen recht – teilweise. Laut McKinsey werden bis 2030 ca. 27 % der jetzigen Arbeitszeit in Europa und ca. 30 % in den USA vollständig automatisiert (McKinsey). Das World Economic Forum rechnet bis 2030 mit dem Wegfall von 92 Millionen Arbeitsplätzen weltweit. Gleichzeitig entstehen aber 170 Millionen neue Stellen – vor allem in Pflege, Bildung, Green Jobs, IT und Bau. Das ergibt einen Nettozuwachs von 78 Millionen Jobs. Es geht also nicht nur um einen möglichen Jobverlust. Es geht um eine tiefgreifende Verschiebung von Tätigkeiten. Wiederkehrende Aufgaben werden an Maschinen verlagert, während Kompetenzen wie Analysen, Kreativität und soziale Intelligenz immer wichtiger werden.
Das eigentliche Risiko: fehlende Kompetenzen
Das World Economic Forum zeigt klar: Das größte Hindernis für Transformation sind nicht die Maschinen, sondern wir selbst. 63 % der Unternehmen nennen fehlende Kompetenzen als größte Barriere für den Wandel von 2025 bis 2030 (WEF, Future of Jobs 2025). Heute werden noch 47 % der Aufgaben von Menschen allein erledigt, 22 % von Maschinen und 30 % gemeinsam. Bis 2030 erwarten Arbeitgeber eine fast gleichmäßige Verteilung – ein Drittel Mensch, ein Drittel Maschine, ein Drittel Zusammenarbeit. (WEF, Future of Jobs 2025)
Das bedeutet: Wer nicht die Fähigkeit entwickelt, mit KI zu arbeiten, sie zu hinterfragen und verantwortungsvoll einzusetzen, verliert. Nicht die KI ersetzt den Menschen – sondern der Mensch ohne KI-Kompetenzen wird durch eine kompetente Person ersetzt.
Europa: Zwischen Angst und Führung
Für Europa ist diese Entwicklung ein Lackmustest. Wir können uns im Angstmodus verlieren oder wir können gestalten. Die Arbeitsrealität ist in Europa eine gänzlich andere als in Asien oder den USA, daher können wir diese Modelle nicht einfach kopieren. Wenn wir sollten auf unsere Stärken setzen – Bildung, Vielfalt, Menschenrechte, soziale Marktwirtschaft. Damit können wir zeigen: KI ist nicht nur eine Produktivitätsmaschine, sondern ein Werkzeug für digitale Souveränität und gesellschaftlichen Fortschritt.
Die Frage ist nicht, ob KI Jobs ersetzt.
Die Frage ist, ob wir die Kompetenzen entwickeln, die den Unterschied machen: kritisches Denken, Resilienz, Kreativität, digitale Souveränität. Ohne Angst vor der Digitalisierung sondern mit dem Vertrauen in unsere Systeme und Vorgehensweisen.
Die Zukunft der Arbeit ist keine Zukunft der Maschinen.
Sie ist eine Zukunft, in der menschliche Kompetenz entscheidet, ob wir überrollt werden – oder führen.
von Gabriele Bolek-Fügl
Gabriele Bolek-Fügl nimmt uns mit nach Thailand, wo KI den Kellnerjob smarter macht: Bestellungen werden einfach ins Smartphone diktiert – schneller, inklusiver und überraschend elegant.
Sawasdee aus Koh Samui! Während ich unter Palmen einen eiskalten Thai Iced Tea schlürfe, möchte ich Euch erzählen, wie KI im Alltag manchmal ganz unspektakulär und gleichzeitig genial daherkommt.
Im kleinen Strandrestaurant, in dem wir gestern zu Abend gegessen haben, zückt der Kellner kein Notizbuch und auch kein “altmodisches” Order-Tablet. Stattdessen nutzt er einfach sein Smartphone und diktiert die Bestellung mündlich. Kein umständliches Tippen, kein Rätselraten bei komplizierten Gerichten.
Im Hintergrund läuft ein KI-Agent, der das Gesagte in Echtzeit erkennt und automatisch mit der digitalen Speisekarte abgleicht. Innerhalb von Sekunden findet er den richtigen Pad-Thai-Eintrag, samt Extras wie „europäisch scharf“ oder „ohne Erdnüsse“.
Das hat Charme auf mehreren Ebenen:
Manchmal reicht ein Smartphone und ein cleverer Agent und schon hat die klassische Bestellung à la „Zettel und Stift“ ausgedient.
Bis zum nächsten KI-Fundstück aus KI around the World!
Ich geh jetzt erstmal mein Pad Thai genießen. 🥢🌴
(Dieser Text wurde von mir zusammen mit ChatGPT generiert – ist also ein echter KI-Urlaubsgruß.)
Ein Beitrag von Sanja Cancar
Von Prompt-Optimierung über das L.E.G.A.L.-Framework bis hin zu Prompt Chaining: Sanja Cancar zeigt praktische Hacks, mit denen Jurist:innen, Compliance Officer und Auditor:innen bessere Ergebnisse erzielen – sicher, effizient und praxisnah.
Inzwischen haben wohl die meisten von uns schon Erfahrung damit gesammelt, Prompts zu schreiben. Wer schon einmal eine komplexe rechtliche Frage, einen Compliance-Fall oder ein Audit-Szenario an ein Sprachmodell übergeben hat, weiß: Gute Ergebnisse hängen stark von der Art und Weise ab, wie man fragt. Die besten Tipps gibt’s natürlich in der PaiperOne-Schulung – dort lernt man das Handwerkszeug von Grund auf.
Aber seien wir ehrlich: Es gibt immer noch den einen oder anderen Hack, der einen echten Unterschied macht. Tricks, die neue Perspektiven eröffnen, die Qualität der Antworten erhöhen oder die Arbeit spürbar erleichtern. Wir haben ein paar solcher – unserer Meinung nach – besten Tipps herausgepickt, die euch direkt im Arbeitsalltag weiterhelfen können.
Die Quellen zu unseren Inspirationen findet ihr am Ende des Artikels. Und: Wir freuen uns riesig, wenn ihr eure eigenen Tipps und Tricks mit uns teilt!
Ein kleiner, aber mächtiger Hack: Lass den Prompt direkt vom LLM optimieren. Klingt simpel, wird aber erstaunlich selten genutzt – dabei kann es die Qualität und Präzision der Ergebnisse erheblich steigern.
Beispiel: Original-Prompt:
„Draft a checklist for auditing and monitoring compliance program effectiveness.“
Anstatt direkt auf die Antwort zu warten, kann man den Prompt Optimizer von GPT-5 fragen. Das Modell liefert dann eine optimierte Version, die oft präziser, strukturierter und praxisnäher ist – quasi wie ein Mentor, der den Prompt feinschleift. So spart man Zeit, reduziert Nacharbeiten und bekommt schneller hochwertige Ergebnisse.
Optimierter Prompt:
Vergleicht man das Ergebnis des Original-Prompts mit dem Ergebnis der verbesserten Variante, spricht die Qualität für sich.
Ein strukturierter Prompt liefert bessere Antworten, spart Zeit, sorgt für verlässlichere Ergebnisse und reduziert Missverständnisse. Für Juristen ist ein besonders hilfreicher Ansatz das Legal-Prompt-Framework L.E.G.A.L., das speziell dafür entwickelt wurde, komplexe rechtliche Aufgaben effizient zu strukturieren.
Das Framework im Überblick:
Mit dieser Methode kann man komplexe Anfragen in präzise, klare Anweisungen umwandeln – ideal für rechtliche Analysen, Vertragsprüfungen oder Compliance-Aufgaben.
Komplexe juristische Aufgaben lassen sich oft am besten in schrittweise aufeinander aufbauende Prompts gliedern – eine Methode, die als Prompt Chaining bekannt ist. Dabei wird der Output eines Prompts als Input für den nächsten Prompt genutzt. Dies erhöht die Präzision und Nachvollziehbarkeit, insbesondere bei Due-Diligence-Prüfungen, Compliance-Analysen oder Vertragsprüfungen.
Wichtig: Jeder Prompt sollte logisch auf dem vorherigen aufbauen, sodass die KI verknüpfte Aufgaben besser versteht und konsistente Ergebnisse liefert.
Beispiel: Prompt Chaining für die Überprüfung eines Arbeitsvertrags
Ziel: Risiken und Verbesserungsmöglichkeiten im Arbeitsvertrag identifizieren, strukturiert analysieren und Handlungsempfehlungen ableiten.
Durch diesen Ansatz lassen sich komplexe rechtliche Prüfungen effizient strukturieren, Schwachstellen gezielt identifizieren und fundierte Handlungsempfehlungen ableiten.
Vibe Coding ist in aller Munde, aber kennt ihr schon Vibe Prompting? Hier findet ihr sogar einen superschnellen, kostenlosen Kurs dazu: Vibe Prompting.
Die Grundidee: Moderne LLMs werden immer besser darin, Menschen zu verstehen. Anstatt mit abstrakten Konzepten zu arbeiten, geht es darum, Ton, Rhythmus und Emotion zu vermitteln und, wie sich etwas anfühlen soll, statt Funktionen exakt vorzugeben. Man arbeitet mit Intuition und lässt sich stärker vom eigenen Gefühl leiten. Bleibt beim Prozess, benutzt natürliche Sprache (besonders effektiv: Spracheingabe!) und experimentiert abwechselnd mit verschiedenen Modellen.
Wem das zu esoterisch nach Meditationsklängen und Chakras klingt, hat nicht Unrecht. Einen Versuch ist es aber wert. Wo man jedenfalls Abstand von dieser Methode nehmen sollte sind Kontexte, die einen viel strukturierteren Ansatz benötigen, wie:
Der wichtigste Grundsatz bei der Arbeit mit generativen KI-Systemen für Jurist:innen und Compliance-Profis lautet: Vorsicht ist Pflicht. KI kann ein mächtiges Werkzeug sein, ersetzt aber niemals professionelle Sorgfalt und fundierte juristische Prüfung.
Beispiel: „Analysiere die Kündigungsfristen für eine Altbauwohnung in Wien nach österreichischem Recht unter Berücksichtigung der Judikatur des OGH.“
KI ist ein Hilfsmittel und ersetzt keine professionelle Prüfung und Sorgfaltspflicht!
🔗 Quellen und weitere Ressourcen:
Das Beste aus Veranstaltungen, Informationen,
Blogs & Podcasts in einer Übersicht.
Unsere nächste AI Compliance Officer
Schulung startet am 10. Oktober – jetzt anmelden und Platz sichern!
©2025 PaiperOne GmbH | Impressum | Datenschutzerklärung