Lektion 5 von 5
Grenzen, Qualitätssicherung und Vertraulichkeit
Produktivität ohne blinde Flecken
Claude ist in den letzten Lektionen zu einem Produktivitäts-Werkzeug geworden. Damit er das auf Dauer bleibt, braucht es drei Themen im Blick: Qualitätssicherung, Vertraulichkeit und rechtliche Rahmenbedingungen.
Halluzinationen ernst nehmen
Auch ein gutes Modell erfindet gelegentlich Details, Quellen oder Zahlen. Nicht aus böser Absicht, sondern weil Sprachmodelle primär darauf trainiert sind, plausibel weiterzusprechen. In der täglichen Arbeit zeigen sich Halluzinationen typischerweise an drei Stellen:
- Zitierte Studien und Quellen. Namen, Jahreszahlen und Autoren, die gut klingen, aber nicht existieren.
- Präzise Zahlen. Prozentwerte, Marktgrößen, Konstanten, die verblüffend konkret sind — und verblüffend frei erfunden.
- Gesetzesverweise und Rechtsprechung. Paragraphen und Aktenzeichen, die stimmen könnten, aber nicht zur Sache passen.
Drei Arbeitsgewohnheiten halten diese Risiken klein:
Quellen im Prompt einfordern. Fordern Sie Claude auf, die Textstellen zu nennen, auf denen die Antwort beruht. Wenn Claude nur bereitgestellte Dokumente nutzen soll, sagen Sie es explizit.
Stichproben prüfen. Nicht jede Aussage, aber die geschäftskritischen: Summen, Fristen, Aktenzeichen, Produktdaten. Zwei Minuten Gegencheck verhindern oft größere Folgekosten.
Robuste Prompts für Daueraufgaben. Wenn Sie einen Prozess standardisieren (etwa Reklamations-Antworten), schreiben Sie die Regeln mit Beispielen fest. Das reduziert Abweichungen und erleichtert die Kontrolle.
Qualitätssicherung im Team
In Organisationen, in denen mehrere Personen mit Claude arbeiten, lohnen sich drei einfache Leitplanken:
- Ein geteiltes Projekt pro Zweck. Statt dass jede Person eigene Chats führt, nutzen Sie ein Projekt mit gemeinsamen Anweisungen und Dokumenten. Das sichert Konsistenz.
- Ein Review-Schritt vor Außenkontakt. Jede für Kunden, Behörden oder Partner bestimmte Ausgabe durchläuft eine menschliche Prüfung, bevor sie rausgeht. Das ist weniger Aufwand, als es klingt — oft reichen wenige Sekunden.
- Regelmäßige Fälle als Trainingsmaterial. Gute und schlechte Beispiele werden im Team geteilt, damit alle daraus lernen.
Vertraulichkeit und Datenschutz
Die zentrale Frage lautet: Welche Informationen dürfen überhaupt in Claude? Drei Kategorien helfen bei der Einordnung:
Unkritisch. Allgemein zugängliche Informationen, öffentlich verfügbare Texte, interne Texte ohne besonderen Schutzbedarf. Nutzung problemlos, sofern Sie die allgemeinen Lizenzbedingungen einhalten.
Sensibel, aber nutzbar in Enterprise-Tarifen. Interne Prozessdokumentationen, Angebotsentwürfe mit Kundendaten, Produktwissen. Hier sollten Sie in einem Tarif arbeiten, in dem Anthropic die Nutzung Ihrer Eingaben zum Training vertraglich ausschließt — typischerweise Teams oder Enterprise.
Hoch sensibel. Personenbezogene Daten besonderer Kategorien (Gesundheitsdaten, Glaubensfragen, biometrische Daten), Geschäftsgeheimnisse mit hohem Risikoprofil, rechtlich geschützte Unterlagen Dritter ohne Einwilligung. Hier gilt: im Zweifel nicht ohne rechtliche Prüfung einfügen, gegebenenfalls anonymisieren, manchmal gar nicht in KI-Werkzeuge geben.
Für die DSGVO-Dimension gilt: Wenn personenbezogene Daten verarbeitet werden, brauchen Sie einen Auftragsverarbeitungsvertrag mit dem Anbieter, eine saubere Rechtsgrundlage und ein Konzept, wie Betroffenenrechte (Auskunft, Löschung) umgesetzt sind. Anthropic bietet entsprechende Vereinbarungen an — prüfen Sie sie im Detail, inklusive Standardvertragsklauseln für Datentransfers außerhalb der EU.
EU AI Act in der Praxis
Seit Februar 2025 gilt die KI-Literacy-Pflicht nach Artikel 4: Betreiber müssen sicherstellen, dass ihre Mitarbeitenden ausreichende KI-Kompetenz haben. Dieser Kurs ist ein Baustein, der direkt darauf einzahlt. Dokumentieren Sie, wer wann welche Schulung absolviert hat — das ist der Nachweis.
Für Chatbots an Kunden gilt Transparenzpflicht: Nutzer müssen erkennen können, dass sie mit einer KI kommunizieren. Wer Claude in Hochrisiko-Szenarien einsetzt (etwa Bewerberauswahl, Kreditentscheidungen), braucht zusätzliche Prüfungen. Details dazu liefert der Kurs „EU AI Act kompakt".
Sichere Grundregeln für den Alltag
Eine knappe Orientierung für Ihr Team:
- Keine Passwörter, Zugangsdaten oder Schlüssel in Prompts.
- Keine ungeprüften KI-Antworten an Kunden oder Behörden.
- Geschäftskritische Zahlen und Rechtsaussagen immer verifizieren.
- Sensible Daten nur in Tarifen mit vertraglichem Trainingsausschluss.
- Klare interne Nutzungsrichtlinie, bekannt und freigegeben durch die Geschäftsführung.
- Schulungsnachweise führen, nicht nur pauschal unterschreiben lassen.
Was Sie aus diesem Kurs mitnehmen
Claude ist ein mächtiges Werkzeug, wenn Sie ihn bewusst einsetzen. Sie kennen nun die Modellfamilie und die Oberfläche, wissen, wie Prompts strukturiert aufgebaut werden, welche Einsatzgebiete sich im Mittelstand eignen und wie Sie Qualität und Vertraulichkeit im Griff behalten.
Der Unterschied zwischen gelegentlicher und produktiver Nutzung ist weder technisch noch magisch. Er liegt im strukturierten Vorgehen — und in der Disziplin, die Verantwortung für die Ergebnisse beim Menschen zu belassen.
Die Abschlussprüfung wartet auf Sie.
Wissenscheck
Welches Vorgehen ist die beste Absicherung gegen Halluzinationen in einem sachlichen Report?
Welche Aussage zu Vertraulichkeit und Datennutzung ist korrekt?