· magra-sec

Shadow AI im Mittelstand: So nutzen Sie KI sicher und vermeiden den Kontrollverlust

Shadow AI gefährdet Ihre Unternehmensdaten. Erfahren Sie, wie KMU den KI-Wildwuchs eindämmen, Governance etablieren und KI-Chancen sicher nutzen.

Die Szene wiederholt sich täglich in tausenden deutschen Unternehmen: Ein Mitarbeiter sitzt vor einer komplexen Auswertung, öffnet einen neuen Browser-Tab und tippt die Unternehmenszahlen in ChatGPT ein. Die Präsentation für den Vorstand muss fertig werden, und das KI-Tool formuliert in Sekunden, wofür er sonst Stunden bräuchte. Was auf den ersten Blick nach produktivem Arbeiten aussieht, ist für IT-Sicherheitsverantwortliche ein Albtraum. Die Quartalszahlen, Kundendaten oder Strategiepapiere landen auf Servern in den USA, ohne dass irgendjemand im Unternehmen davon weiß. Willkommen in der Welt der Shadow AI, dem vielleicht größten ungeplanten IT-Risiko des Jahres 2025. Laut einer Studie von Salesforce nutzen bereits 55 Prozent der deutschen Arbeitnehmer generative KI-Tools, aber nur ein Bruchteil davon mit expliziter Genehmigung des Arbeitgebers. Das Phänomen erinnert an die Anfänge der Schatten-IT vor zwanzig Jahren, als Mitarbeiter ihre privaten USB-Sticks an Firmenrechner anschlossen. Doch Shadow AI ist ungleich gefährlicher. Die Daten verlassen nicht nur das Unternehmen, sie werden von KI-Systemen verarbeitet und möglicherweise zum Training neuer Modelle verwendet. Was einmal bei OpenAI, Google oder Anthropic landet, lässt sich nicht mehr zurückholen. Für KMU-Geschäftsführer stellt sich damit eine dringende Frage: Wie können wir die Produktivitätsvorteile von KI nutzen, ohne die Kontrolle über unsere sensibelsten Daten zu verlieren? Die Antwort liegt nicht im Verbieten, sondern in einer durchdachten KI-Governance, die Chancen ermöglicht und Risiken minimiert.

Warum Shadow AI Ihr Unternehmen bedroht

Geschäftsmann am Laptop mit digitalen Sicherheitssymbolen Shadow AI unterscheidet sich fundamental von klassischer Schatten-IT. Wenn ein Mitarbeiter früher Dropbox statt des Firmen-Sharepoints nutzte, blieben die Daten zumindest bei einem bekannten Anbieter mit klaren Nutzungsbedingungen gespeichert. Bei generativer KI ist die Situation komplexer: Die eingegebenen Informationen werden nicht nur gespeichert, sondern aktiv verarbeitet und können in die Wissensbasis des Modells einfließen. Ein Vertriebsmitarbeiter, der eine Kundenliste zur Analyse in Claude eingibt, oder ein Controller, der Finanzdaten durch GPT-4 jagen lässt, um Muster zu erkennen, handeln meist ohne böse Absicht. Sie wollen schlicht ihre Arbeit effizienter erledigen. Doch die Konsequenzen können verheerend sein, von Verstößen gegen die DSGVO bis hin zur unbeabsichtigten Preisgabe von Geschäftsgeheimnissen. Die Risiken lassen sich in vier Kategorien einteilen, die jeder Geschäftsführer kennen sollte. Erstens der Datenschutz: Wenn personenbezogene Daten wie Kundennamen, E-Mail-Adressen oder Gesundheitsinformationen in KI-Systeme eingegeben werden, liegt möglicherweise eine unzulässige Datenübermittlung in Drittländer vor. Zweitens die Compliance: Branchenspezifische Vorschriften wie die TISAX im Automotive-Bereich oder das Bankgeheimnis werden verletzt, wenn sensible Informationen unkontrolliert das Unternehmen verlassen. Drittens der Schutz von Geschäftsgeheimnissen: Produktentwicklungen, Kalkulationen oder Strategien könnten theoretisch in den Antworten anderer Nutzer auftauchen, auch wenn die großen Anbieter dies mittlerweile technisch unterbinden wollen. Viertens die rechtliche Haftung: Wer haftet, wenn eine KI-generierte Analyse fehlerhaft ist und auf dieser Basis Geschäftsentscheidungen getroffen werden? Diese Fragen sollten Teil einer umfassenden IT-Sicherheitsberatung sein.

Zahlen, die aufrütteln sollten

Die Verbreitung von Shadow AI in deutschen Unternehmen hat eine Geschwindigkeit erreicht, die selbst Experten überrascht. Nach Erhebungen des Digitalverbands Bitkom experimentieren bereits zwei Drittel aller Unternehmen mit generativer KI, aber nur etwa ein Viertel hat verbindliche Richtlinien für deren Nutzung etabliert. Diese Lücke zwischen Adoption und Governance ist gefährlich. In vielen Fällen wissen IT-Abteilungen nicht einmal, welche KI-Tools ihre Mitarbeiter nutzen, da diese häufig über private Accounts und Browser laufen. Eine Analyse des Netzwerkverkehrs würde erschreckende Ergebnisse liefern, aber die wenigsten mittelständischen Unternehmen führen solche Untersuchungen durch. Das Problem verschärft sich durch die Tatsache, dass KI-Tools keine Installation erfordern und damit an klassischen Software-Inventarisierungen vorbeigehen. Besonders kritisch ist die Situation in wissensintensiven Branchen. Anwaltskanzleien, deren Mitarbeiter vertrauliche Mandanteninformationen zur Recherche nutzen, Steuerberater, die Finanzdaten durch KI-Systeme analysieren lassen, oder Personaldienstleister, die Bewerbungsunterlagen mit sensiblen biografischen Daten einspeisen: Überall dort, wo Menschen mit vertraulichen Informationen arbeiten, ist die Versuchung groß, KI als Produktivitätswerkzeug einzusetzen. Die Ironie dabei ist, dass gerade diese Branchen oft strengen Verschwiegenheitspflichten unterliegen. Ein Datenschutzvorfall kann hier nicht nur Bußgelder nach sich ziehen, sondern existenzbedrohend sein - vergleichbar mit einem Ransomware-Angriff. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat bereits mehrfach vor den Risiken unkontrollierter KI-Nutzung gewarnt und Unternehmen zu einem strukturierten Vorgehen aufgefordert.

Warum Sie KI nicht ignorieren können

Team bei der Zusammenarbeit mit digitalen Werkzeugen im modernen Büro So berechtigt die Sicherheitsbedenken sind, so gefährlich wäre ein pauschales KI-Verbot für die Wettbewerbsfähigkeit Ihres Unternehmens. Die Produktivitätsgewinne durch generative KI sind real und substanziell. Studien von McKinsey zeigen, dass Wissensarbeiter durch KI-Unterstützung bis zu 40 Prozent ihrer Zeit einsparen können, bei gleichzeitig höherer Qualität ihrer Ergebnisse. Unternehmen, die diese Werkzeuge strategisch einsetzen, verschaffen sich einen Vorsprung, der in wettbewerbsintensiven Märkten entscheidend sein kann. Ein Marketingteam, das mit KI-Unterstützung in einem Tag die Arbeit einer Woche erledigt, ein Vertrieb, der personalisierte Angebote in Rekordzeit erstellt, oder eine Rechtsabteilung, die Verträge in Minuten statt Stunden analysiert: Das sind keine Zukunftsvisionen, sondern bereits Realität in progressiv geführten Unternehmen. Der richtige Ansatz liegt daher nicht im Verbieten, sondern im kontrollierten Ermöglichen. Unternehmen, die KI komplett untersagen, riskieren zweierlei: Erstens werden Mitarbeiter die Tools trotzdem nutzen, nur eben heimlich und damit noch unkontrollierter. Zweitens verliert das Unternehmen den Anschluss an einen technologischen Wandel, der vergleichbar mit der Einführung des Internets oder mobiler Geräte ist. Die Kunst besteht darin, einen Rahmen zu schaffen, der Innovation fördert und gleichzeitig die berechtigten Sicherheitsinteressen wahrt. Dieser Rahmen beginnt mit einer ehrlichen Bestandsaufnahme: Welche KI-Tools werden bereits genutzt? Welche Daten fließen wohin? Und welche Risiken bestehen konkret? Eine professionelle IT-Sicherheitsberatung kann hier wertvolle Unterstützung bieten.

Der Weg zur KI-Governance: Struktur statt Chaos

Eine wirksame KI-Governance für den Mittelstand muss drei Anforderungen erfüllen: Sie muss praktikabel sein, sie muss die Mitarbeiter mitnehmen, und sie muss flexibel genug bleiben, um mit der rasanten Entwicklung der Technologie Schritt zu halten. Der erste Schritt besteht in der Entwicklung einer KI-Richtlinie, die klare Regeln für den Umgang mit generativer KI im Unternehmen definiert. Diese Richtlinie sollte festlegen, welche Datentypen niemals in externe KI-Systeme eingegeben werden dürfen, also beispielsweise personenbezogene Daten, Geschäftsgeheimnisse, Kundendaten oder unveröffentlichte Finanzzahlen. Gleichzeitig sollte sie definieren, für welche Anwendungsfälle KI ausdrücklich erlaubt und sogar erwünscht ist, etwa für allgemeine Recherchen, Textkorrekturen oder Ideenfindung mit anonymisierten Daten. Die technische Umsetzung der Governance erfordert mehrere Komponenten. Zunächst sollten Unternehmen prüfen, ob Enterprise-Versionen der gängigen KI-Tools infrage kommen. Microsoft 365 Copilot, ChatGPT Enterprise oder Google Gemini for Workspace bieten im Gegensatz zu den kostenlosen Consumer-Versionen vertragliche Zusicherungen, dass eingegebene Daten nicht zum Training der Modelle verwendet werden. Diese Enterprise-Lizenzen sind zwar mit Kosten verbunden, bieten aber Rechtssicherheit und Compliance-Vorteile, die diese Investition oft rechtfertigen. Für besonders sensible Anwendungsfälle kann auch der Betrieb lokaler KI-Modelle sinnvoll sein, die vollständig innerhalb der eigenen Infrastruktur laufen. Open-Source-Modelle wie Llama von Meta oder Mistral ermöglichen dies mittlerweile mit akzeptabler Qualität. Ein grundlegender Zero-Trust-Ansatz sollte dabei auch für KI-Systeme gelten.

So implementieren Sie KI-Governance

Die Einführung einer KI-Governance ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Im ersten Schritt sollten Sie eine Bestandsaufnahme durchführen und verstehen, welche KI-Tools bereits im Unternehmen genutzt werden. Sprechen Sie mit Ihren Mitarbeitern offen über deren KI-Nutzung, ohne Schuldzuweisungen. Viele werden erleichtert sein, dass das Thema endlich adressiert wird. Im zweiten Schritt klassifizieren Sie Ihre Unternehmensdaten nach Sensibilität und definieren für jede Kategorie, ob und wie KI-Tools genutzt werden dürfen. Öffentlich verfügbare Informationen sind unproblematisch, bei personenbezogenen Daten oder Geschäftsgeheimnissen gelten strenge Einschränkungen. Im dritten Schritt wählen Sie geeignete Tools aus und stellen diese Ihren Mitarbeitern offiziell zur Verfügung. Besser eine kontrollierte Lösung als hundert unkontrollierte. Die Schulung der Mitarbeiter ist dabei mindestens so wichtig wie die technischen Maßnahmen. Erklären Sie nicht nur, was verboten ist, sondern auch warum. Menschen, die die Risiken verstehen, handeln verantwortungsvoller als Menschen, die nur Regeln befolgen sollen. Zeigen Sie praktische Beispiele: Wie formuliere ich eine Anfrage an ChatGPT, ohne sensible Daten preiszugeben? Wie anonymisiere ich Daten effektiv, bevor ich sie analysieren lasse? Wie erkenne ich, ob eine KI-generierte Antwort plausibel ist oder halluziniert wurde? Diese Kompetenz, oft als Prompt Engineering oder KI-Literacy bezeichnet, wird zu einer Kernkompetenz für Wissensarbeiter. Unternehmen sollten entsprechende Schulungen anbieten und das Thema in ihre regulären Awareness-Programme integrieren. Das passt hervorragend zu einem umfassenden Incident-Response-Plan, der auch KI-bezogene Vorfälle abdeckt.

Enterprise-KI und lokale Modelle

Der Markt für unternehmenstaugliche KI-Lösungen hat sich in den vergangenen Monaten rasant entwickelt. Microsoft hat seinen Copilot tief in das Office-Ökosystem integriert und bietet mit der Enterprise-Version Datenschutzgarantien, die für viele Unternehmen akzeptabel sind. Die Daten bleiben innerhalb der Microsoft-365-Tenant-Grenzen und werden nicht zum Training externer Modelle verwendet. Ähnliche Zusicherungen gibt es von OpenAI mit ChatGPT Enterprise und von Google mit Gemini for Workspace. Für Unternehmen, die bereits stark in eines dieser Ökosysteme investiert haben, sind die entsprechenden KI-Erweiterungen oft der einfachste Weg zu einer kontrollierten KI-Nutzung. Die Integration in bestehende Identitäts- und Zugriffsmanagement-Systeme erleichtert zudem die Administration und das Monitoring. Für Unternehmen mit besonders hohen Sicherheitsanforderungen oder spezifischen Compliance-Vorgaben können lokal betriebene KI-Modelle die bessere Wahl sein. Die technischen Voraussetzungen hierfür sind heute überschaubarer als noch vor einem Jahr. Modelle wie Llama 3 von Meta, Mistral oder die deutschen Modelle von Aleph Alpha lassen sich auf unternehmenseigener Infrastruktur betreiben, sei es auf lokalen Servern oder in einer privaten Cloud-Umgebung. Die Qualität dieser Modelle reicht für viele Anwendungsfälle aus, auch wenn sie nicht ganz an die neuesten Versionen von GPT-4 oder Claude heranreichen. Der entscheidende Vorteil: Die Daten verlassen niemals das Unternehmen. Für Branchen wie den Finanzsektor, das Gesundheitswesen oder Unternehmen mit strengen Geheimhaltungspflichten kann dies den Ausschlag geben. Ein Managed-Service-Ansatz kann bei der Implementierung solcher Lösungen unterstützen.

Rechtliche Rahmenbedingungen: Was der AI Act für KMU bedeutet

Mit dem EU AI Act hat die Europäische Union das weltweit erste umfassende Regelwerk für künstliche Intelligenz geschaffen. Für die meisten KMU sind die direkten Auswirkungen überschaubar, da die strengsten Vorschriften vor allem Hochrisiko-KI-Systeme betreffen, etwa in der Medizin oder bei Personalentscheidungen. Dennoch sollten Geschäftsführer die grundlegenden Anforderungen kennen. Unternehmen, die KI-Systeme einsetzen, müssen sicherstellen, dass diese transparent, nachvollziehbar und diskriminierungsfrei arbeiten. Das bedeutet praktisch: Dokumentieren Sie, welche KI-Tools Sie nutzen, für welche Zwecke und auf Basis welcher Daten. Diese Dokumentation ist nicht nur rechtlich geboten, sondern hilft auch bei der internen Steuerung und Qualitätskontrolle. Die datenschutzrechtlichen Anforderungen der DSGVO gelten natürlich weiterhin und sind bei der KI-Nutzung besonders relevant. Wenn personenbezogene Daten in KI-Systeme eingegeben werden, handelt es sich um eine Datenverarbeitung, die einer Rechtsgrundlage bedarf. Bei Systemen von US-Anbietern kommt die Problematik des internationalen Datentransfers hinzu. Auch wenn das EU-US Data Privacy Framework für viele Anbieter eine rechtliche Grundlage bietet, bleiben Risiken, insbesondere bei sensiblen Datenkategorien. Unternehmen sollten daher prüfen, ob für ihre spezifischen Anwendungsfälle europäische Alternativen existieren. Die Cybersicherheits-Checkliste 2025 kann dabei als Orientierung dienen, welche Maßnahmen in Ihrem Unternehmen prioritär umgesetzt werden sollten.

KI als Chance begreifen, Risiken beherrschen

Die unkontrollierte Nutzung von KI-Tools durch Mitarbeiter ist ein Risiko, das kein Unternehmen ignorieren sollte. Doch die Lösung liegt nicht im Verbot, sondern in einer durchdachten Governance, die Innovation ermöglicht und gleichzeitig Sicherheit gewährleistet. Die Schritte dorthin sind klar: Bestandsaufnahme der aktuellen Nutzung, Definition von Richtlinien, Bereitstellung sicherer Alternativen und kontinuierliche Schulung der Mitarbeiter. Unternehmen, die diesen Weg gehen, profitieren doppelt: Sie minimieren die Risiken durch Shadow AI und erschließen gleichzeitig die erheblichen Produktivitätspotenziale generativer KI. Diese Entwicklung ist Teil der neuen Trends in der Cybersecurity für KMU, die Unternehmen aktiv gestalten sollten. Der Mittelstand hat hier sogar einen strukturellen Vorteil gegenüber Konzernen: Kürzere Entscheidungswege ermöglichen eine schnellere Umsetzung, und überschaubare Organisationsgrößen erleichtern die flächendeckende Schulung aller Mitarbeiter. Die Entwicklung der KI-Technologie wird weitergehen, und die Tools werden noch leistungsfähiger und noch verlockender werden. Unternehmen, die heute eine solide Governance-Struktur aufbauen, sind für diese Zukunft besser gerüstet als solche, die das Thema aussitzen oder mit pauschalen Verboten reagieren. Die Investition in sichere KI-Infrastruktur, klare Richtlinien und Mitarbeiterschulung zahlt sich aus, nicht nur in vermiedenen Sicherheitsvorfällen, sondern auch in gesteigerter Produktivität und Wettbewerbsfähigkeit. Wenn Sie unsicher sind, wie Sie das Thema KI-Governance in Ihrem Unternehmen angehen sollen, unterstütze ich Sie gerne. In meiner IT-Sicherheitsberatung entwickeln wir gemeinsam einen pragmatischen Rahmen, der zu Ihrem Unternehmen passt und sowohl Sicherheit als auch Innovation ermöglicht.