KI-Tools im Unternehmen: Welche Daten dürfen rein, welche nicht?

Dein Team nutzt ChatGPT, Claude und Co. Gut so. Aber welche Firmendaten dürfen in die KI-Tools – und welche auf keinen Fall? Ein Ampelsystem, das sofort Klarheit schafft.

KI-Tools im Unternehmen: Welche Daten dürfen rein, welche nicht?

Dein Team nutzt KI-Tools. Die Frage ist: mit welchen Daten?

Ich sage es direkt: Wenn du als Geschäftsführer glaubst, dass in deinem Unternehmen niemand ChatGPT, Claude oder Copilot benutzt – liegst du falsch. Laut einer Microsoft-Studie von 2024 nutzen 75 Prozent der Wissensarbeiter KI-Tools bei der Arbeit. Und mehr als die Hälfte davon hat ihre eigenen Accounts mitgebracht, ohne die IT zu fragen.

Das ist kein Vorwurf an dein Team. Die Tools sind verdammt nützlich. E-Mails formulieren, Protokolle zusammenfassen, Ideen strukturieren – alles schneller, alles besser. Aber hier liegt das Problem: Niemand hat ihnen gesagt, welche Daten sie dort eingeben dürfen. Und welche nicht.

Shadow AI: Das Risiko, das du nicht siehst

Shadow AI funktioniert wie Shadow IT vor zehn Jahren. Mitarbeiter nutzen Tools, die nicht offiziell freigegeben sind. Nicht aus bösem Willen, sondern weil sie ihre Arbeit schneller erledigen wollen. Der Unterschied: Bei Shadow IT ging es um Dropbox-Accounts und private Handys. Bei Shadow AI geht es um Firmendaten, die in externe Systeme fließen.

Was passiert mit den Daten? Bei der kostenlosen Version von ChatGPT etwa werden deine Eingaben standardmäßig zum Trainieren des Modells verwendet. Das heißt: Was dein Mitarbeiter heute eingibt, kann morgen in irgendeiner Form in den Antworten für andere Nutzer auftauchen. Klingt theoretisch? Ist es nicht. Samsung hat 2023 genau das erlebt – Mitarbeiter haben proprietären Quellcode in ChatGPT eingegeben.

Das Ampelsystem: Grün, Gelb, Rot

Statt einer 30-seitigen Richtlinie, die niemand liest, empfehle ich ein Ampelsystem. Drei Farben, klare Regeln. Kannst du auf ein Poster drucken und in jeden Meetingraum hängen.

Grün: Kannst du bedenkenlos eingeben

Alles, was ohnehin öffentlich ist oder keinen Rückschluss auf konkrete Personen oder Geschäftsgeheimnisse erlaubt:

  • Öffentlich verfügbare Informationen: Branchentrends, allgemeines Fachwissen, Gesetzestexte, Best Practices.
  • Anonymisierte Daten: Wenn du alle Namen, Firmennamen und identifizierenden Details entfernt hast, ist das Risiko minimal.
  • Generische Texte: "Formuliere eine höfliche Absage-Mail" – ohne Namen, ohne Kontext, ohne Bezug zu einem konkreten Vorgang.
  • Eigene Ideen und Konzepte: Brainstorming, Gliederungen, erste Entwürfe ohne vertrauliche Details.

Faustregel: Würdest du den Text so auch auf LinkedIn posten? Dann ist er grün.

Gelb: Mit Vorsicht und nur mit Enterprise-Version

Interne, aber nicht hochsensible Daten. Hier wird es kniffliger:

  • Interne Prozessbeschreibungen: Wie ihr Angebote erstellt, wie euer Onboarding läuft – ohne Namen und konkrete Zahlen.
  • Allgemeine Finanzkennzahlen: "Unser Umsatz liegt im siebenstelligen Bereich" statt "Unser Q3-Umsatz war 1,47 Millionen Euro."
  • Entwürfe mit internem Kontext: Meeting-Protokolle, Strategieentwürfe – nur wenn ihr eine Enterprise-Version mit vertraglicher Zusicherung nutzt, dass die Daten nicht fürs Training verwendet werden.

Faustregel: Wäre es unangenehm, wenn ein Wettbewerber das liest? Dann nur mit Enterprise-Version und klaren Regeln.

Rot: Geht unter keinen Umständen in ein KI-Tool

Hier gibt es keine Ausnahme. Diese Daten haben in keinem externen KI-Tool etwas zu suchen – egal welche Version:

  • Personenbezogene Daten: Namen von Kunden oder Mitarbeitern, E-Mail-Adressen, Telefonnummern, Adressen. Die DSGVO ist da eindeutig.
  • Personalakten und Bewertungen: Gehälter, Leistungsbeurteilungen, Krankmeldungen, Abmahnungen.
  • Kundendaten und Verträge: Vertragsinhalte, Konditionen, Kundenlisten mit Umsätzen.
  • Finanzdetails: Konkrete Umsatzzahlen, Margen, Kalkulationen, Bankdaten.
  • Quellcode und Geschäftsgeheimnisse: Proprietärer Code, Algorithmen, unveröffentlichte Produktideen, Patentanmeldungen.
  • Passwörter und Zugangsdaten: Klingt offensichtlich, kommt aber vor. "Kannst du mir ein Skript schreiben, das sich mit dem Passwort XY einloggt?"

Faustregel: Wenn ein Datenschutzbeauftragter bei dem Gedanken nervös wird, ist es rot.

Das Praxisproblem: Grau statt Grün

Klingt einfach, oder? Ist es im Alltag nicht immer. Hier ein paar Beispiele, die zeigen, wo es hakt:

Schlecht: "Schreib eine E-Mail an Thomas Müller von der Firma Meier GmbH. Er hat unser Angebot über 45.000 Euro noch nicht unterschrieben. Erinnere ihn freundlich."

Gut: "Formuliere eine freundliche Erinnerungsmail an einen Geschäftskontakt, der ein Angebot noch nicht bestätigt hat. Professioneller, aber nicht drängender Ton."

Der Unterschied: Im ersten Fall landen Name, Firma, Angebotssumme und Geschäftsbeziehung in der KI. Im zweiten Fall bekommt die KI nur die Aufgabe – ohne sensible Details. Das Ergebnis ist genauso gut.

Schlecht: "Fasse dieses Meeting-Protokoll zusammen" – und dann das komplette Protokoll mit allen Teilnehmern, Entscheidungen und Finanzdiskussionen reinkopieren.

Gut: "Fasse die folgenden anonymisierten Diskussionspunkte zusammen" – und vorher Namen durch Rollen ersetzen, konkrete Zahlen entfernen.

Ja, das dauert 30 Sekunden länger. Aber 30 Sekunden sind billiger als ein Datenschutzvorfall.

Enterprise-Versionen: Warum sie den Unterschied machen

Ich höre oft: "Aber wir nutzen doch schon ChatGPT." Die Frage ist: welche Version? Der Unterschied zwischen der kostenlosen Version und einer Enterprise-Lösung ist nicht kosmetisch – er ist fundamental.

  • Kein Training mit deinen Daten: ChatGPT Enterprise, Claude for Work, Microsoft Copilot – alle garantieren vertraglich, dass deine Eingaben nicht zum Modelltraining verwendet werden.
  • Datenverarbeitung in der EU: Manche Anbieter (Microsoft Azure OpenAI, bald auch andere) bieten europäische Rechenzentren. Relevant für DSGVO-Konformität.
  • Admin-Kontrolle: Du bestimmst, wer Zugang hat, welche Features aktiviert sind und kannst die Nutzung monitoren.
  • SSO und Compliance: Integration in eure bestehende IT-Infrastruktur statt wilder Einzelaccounts.

Die Kosten? ChatGPT Team ab 25 Dollar pro Person und Monat, Enterprise individuell. Claude Team ab 28 Dollar pro Person. Microsoft Copilot ab 30 Euro pro Person. Das ist eine Investition – aber eine, die sich rechnet, wenn die Alternative unkontrollierte Nutzung mit privaten Accounts ist.

Fünf Schritte zur KI-Richtlinie

Du brauchst keine 50-seitige Policy. Du brauchst fünf klare Punkte:

  1. Ampelsystem einführen: Grün, Gelb, Rot – wie oben beschrieben. Auf eine Seite, mit Beispielen. Aushängen, verteilen, besprechen.
  2. Enterprise-Version bereitstellen: Wenn dein Team KI nutzen soll (und das sollte es), dann mit einem offiziellen, abgesicherten Tool. Sonst nutzen sie die kostenlose Version – und du hast keine Kontrolle.
  3. Schulung durchführen: Keine zweistündige Compliance-Schulung. Eine halbe Stunde, in der du das Ampelsystem erklärst und drei konkrete Beispiele durchgehst. Schlecht/Gut – wie oben. Das bleibt hängen.
  4. Ansprechpartner benennen: Eine Person im Unternehmen, die bei Unsicherheit entscheidet: "Darf ich diese Daten eingeben?" Kurze Wege, schnelle Antworten. Sonst umgehen die Leute die Regel einfach.
  5. Regelmäßig aktualisieren: KI-Tools entwickeln sich schnell. Was heute gilt, kann in sechs Monaten anders aussehen. Quartalsweise kurz prüfen, ob die Richtlinie noch passt.

DSGVO-Thematik: Nicht vergessen, aber nicht verrückt machen

KI-Tools und DSGVO – das ist ein eigenes Thema, das ich in einem separaten Artikel ausführlich behandle. Hier die Kurzfassung: Ja, die DSGVO gilt auch für KI-Nutzung. Nein, sie verbietet KI nicht. Aber sie verlangt, dass du weißt, was mit personenbezogenen Daten passiert. Und genau dafür sorgt das Ampelsystem: Personenbezogene Daten sind rot. Punkt.

Wenn du tiefer einsteigen willst – Rechtsgrundlagen, Auftragsverarbeitung, Datenschutz-Folgenabschätzung – lies den DSGVO-Artikel.

Die richtige Haltung: Nutzen, nicht verbieten

Ich erlebe zwei Extremreaktionen bei Geschäftsführern. Die einen verbieten KI-Tools komplett. Ergebnis: Das Team nutzt sie trotzdem – heimlich, mit privaten Accounts, ohne jede Kontrolle. Schlimmer als vorher.

Die anderen machen gar nichts. "Die Mitarbeiter werden schon wissen, was sie tun." Tun sie nicht. Nicht aus Dummheit, sondern weil ihnen niemand gesagt hat, wo die Grenze liegt.

Der pragmatische Weg liegt dazwischen: KI-Nutzung aktiv fördern, klare Spielregeln aufstellen und die richtigen Tools bereitstellen. Dein Team will produktiver arbeiten – hilf ihnen dabei, statt ihnen im Weg zu stehen.

Dein nächster Schritt

Das Ampelsystem ist in 30 Minuten aufgesetzt. Druck es aus, besprich es im nächsten Teammeeting, beantworte Fragen. Das allein reduziert dein Risiko um 80 Prozent. Den Rest – Enterprise-Version auswählen, Richtlinie formalisieren, Schulung durchführen – kannst du in den Wochen danach angehen.

Wenn du Unterstützung brauchst – bei der Auswahl der richtigen Enterprise-Lösung, beim Aufsetzen einer KI-Richtlinie oder bei der Frage, welche Prozesse sich überhaupt für KI eignen – buch dir ein kostenloses Erstgespräch. Kein Pitch, kein Druck. Ich schaue mir an, wie dein Team KI nutzt, und sage dir ehrlich, wo die Risiken liegen und wo die Chancen.