KI als Schatten-IT

Warum die gefährlichste KI-Nutzung die ist, von der niemand weiß.

Schatten-IT ist kein neues Phänomen. Es gab sie, seit es IT-Abteilungen gibt. Fachabteilungen haben schon immer Werkzeuge eingeführt, die offiziell nicht vorgesehen waren: ein Projektmanagement-Tool hier, ein Cloud-Speicher dort, eine Tabellenlösung, die besser funktionierte als das Unternehmenssystem. Die IT hat davon oft erst erfahren, wenn etwas schiefging.


Mit KI wiederholt sich dieses Muster. Aber es wiederholt sich auf eine Weise, die sich qualitativ von früheren Fällen unterscheidet. Denn diesmal geht es nicht um ein Tool, das Aufgaben verwaltet oder Dateien speichert. Es geht um Dienste, in die Mitarbeitende vertrauliche Inhalte eingeben, die außerhalb der organisatorischen Kontrolle verarbeitet werden. Kundendaten in einem Prompt. Strategiepapiere als Kontext für eine Zusammenfassung. Vertragsentwürfe, die zur sprachlichen Überarbeitung eingefügt werden.


Der Unterschied zu früherer Schatten-IT ist nicht graduell. Er ist strukturell.


Wie es dazu kommt

Die Nutzung beginnt fast immer mit einer konkreten Arbeitssituation. Jemand sitzt vor einem Text und kommt nicht weiter. Jemand muss einen langen Bericht zusammenfassen und hat dafür eine halbe Stunde. Jemand bereitet eine Präsentation vor und braucht einen Einstieg. Jemand hat eine Tabelle mit unstrukturierten Daten und will daraus ein lesbares Format machen.


KI-Tools sind in diesem Moment verfügbar, funktionieren sofort und kosten nichts oder sehr wenig. Die Entscheidung, sie zu nutzen, fällt nicht in einem Meeting, nicht nach einer Evaluation und nicht nach Rücksprache mit der IT. Sie fällt am Schreibtisch, in einer Minute, zwischen zwei anderen Aufgaben.


Das ist der entscheidende Punkt: Diese Entscheidung wird nicht bewusst gegen Regeln getroffen. Sie wird getroffen, weil es keine Regeln gibt, die sie adressieren. Niemand hat gesagt, dass es verboten ist. Niemand hat gesagt, dass es erlaubt ist. Es gibt einfach keinen Rahmen.


Schatten-IT entsteht nicht aus Widerstand gegen die Organisation. Sie entsteht aus einer Lücke in der Organisation.


Warum KI-Schatten-IT anders ist

Wenn eine Abteilung früher ein nicht genehmigtes Projektmanagement-Tool eingeführt hat, war das ärgerlich für die IT, aber die Risiken waren überschaubar. Die Daten blieben intern, die Nutzung war sichtbar und im Zweifel konnte das Tool ersetzt werden.


Bei KI-Tools ist die Lage anders. Erstens fließen Inhalte nach außen. Wer einen Vertragstext in ChatGPT einfügt, übergibt diesen Text an einen externen Dienst. Je nach Version und Konfiguration kann dieser Text zur Verbesserung des Modells verwendet werden, auf Servern außerhalb der EU gespeichert werden und ist für das Unternehmen nicht mehr löschbar.


Zweitens ist die Nutzung unsichtbar. Es gibt keinen Beschaffungsprozess, keinen Lizenzschlüssel, keine Installation. Die IT bekommt die Nutzung nicht mit, weil es technisch nichts gibt, das sie erkennen könnte. Ein Browser-Tab hinterlässt in den Systemen des Unternehmens keine Spur.


Drittens betrifft die Nutzung nicht ein einzelnes Team oder eine einzelne Abteilung. Sie verteilt sich über die gesamte Organisation, gleichzeitig und unkoordiniert. Jede Abteilung trifft eigene Entscheidungen, ohne von den anderen zu wissen. Das Ergebnis ist nicht ein Schatten-Tool. Es ist ein ganzes Schatten-Ökosystem.


Was Mitarbeitende dabei eingeben

Die meisten Menschen, die KI im Arbeitsalltag nutzen, machen sich keine Gedanken darüber, was sie eingeben. Nicht weil sie sorglos sind, sondern weil die Oberfläche keinen Anlass dazu gibt. ChatGPT sieht aus wie ein Gesprächspartner. Die Interaktion fühlt sich privat an. Man tippt, man bekommt eine Antwort, man arbeitet weiter.


In der Praxis bedeutet das: Mitarbeitende fügen E-Mail-Verläufe ein, um eine Antwort formulieren zu lassen. Sie kopieren Gesprächsnotizen aus Kundenterminen, um eine Zusammenfassung zu bekommen. Sie laden Tabellenausschnitte mit Umsatzdaten hoch, um Muster erkennen zu lassen. Sie geben Bewerbungsunterlagen ein, um eine Vorauswahl vorzubereiten. Sie füttern das System mit Produktinformationen, Preislisten, internen Leitfäden.


Jeder einzelne dieser Vorgänge mag harmlos wirken. In der Summe ergibt sich ein Datenfluss, der die Organisation veranlassen sollte, innezuhalten. Denn niemand hat entschieden, dass diese Daten das Unternehmen verlassen dürfen. Es ist einfach passiert.


Warum Verbote scheitern

Die naheliegende Reaktion ist, KI-Tools zu verbieten. Einige bekannte Unternehmen haben das getan, meist nach konkreten Vorfällen, bei denen vertrauliche Informationen in externe Systeme gelangt sind. Die Logik dahinter ist verständlich: Wenn das Risiko nicht kontrollierbar ist, wird der Zugang gesperrt.


In der Praxis scheitern Verbote aus mehreren Gründen. Der offensichtlichste: Sie sind kaum durchsetzbar. KI-Tools laufen im Browser, oft auf privaten Geräten, über private Internetverbindungen. Ein Unternehmen müsste den Webzugriff umfassend überwachen, um die Nutzung tatsächlich zu unterbinden. Das ist in den meisten Organisationen weder realistisch noch gewünscht.


Der zweite Grund ist subtiler. Verbote lösen das Bedürfnis nicht, das zur Nutzung geführt hat. Wenn jemand KI nutzt, weil ein Text schneller fertig wird, verschwindet dieses Bedürfnis nicht mit dem Verbot. Es sucht sich einen anderen Weg. Private Geräte, persönliche Accounts, Umwege über andere Dienste. Die Nutzung wird nicht gestoppt. Sie wird unsichtbarer.


Der dritte Grund betrifft die Außenwirkung. Ein pauschales KI-Verbot sendet ein Signal an Mitarbeitende, das lautet: Wir wollen nicht, dass ihr schneller oder besser arbeitet. Das ist vermutlich nicht gemeint, aber es ist das, was ankommt. Besonders bei Mitarbeitenden, die KI als echte Arbeitserleichterung erleben, erzeugt ein Verbot Frustration statt Verständnis.


Was Organisationen stattdessen brauchen

Die Lösung ist nicht Kontrolle im Sinne von Überwachung. Die Lösung ist Sichtbarkeit.


Sichtbarkeit bedeutet: Die Organisation weiß, welche KI-Tools genutzt werden. Sie weiß, von wem. Sie weiß, in welchem Kontext. Und sie kann auf dieser Grundlage Entscheidungen treffen, die differenziert sind statt pauschal.


Nicht jede KI-Nutzung ist riskant. Einen Blogpost-Entwurf mit ChatGPT zu erstellen ist etwas anderes, als einen Vertragsentwurf mit Kundendaten einzufügen. Aber ohne Sichtbarkeit gibt es keine Möglichkeit, zwischen diesen Fällen zu unterscheiden. Alles wird gleich behandelt: entweder ignoriert oder verboten.


Was Unternehmen brauchen, ist ein Rahmen, der drei Dinge leistet. Er muss klären, welche Werkzeuge für welche Zwecke genutzt werden dürfen. Er muss definieren, welche Daten in externe Systeme eingegeben werden dürfen und welche nicht. Und er muss eine Infrastruktur bieten, die es Mitarbeitenden ermöglicht, KI zu nutzen, ohne die Organisation zu gefährden.


Das klingt aufwendig. Aber der Aufwand steht in keinem Verhältnis zum Risiko, das entsteht, wenn man nichts tut.


Die eigentliche Frage

Schatten-IT wird nicht durch Regeln beseitigt. Sie wird durch bessere Angebote überflüssig gemacht. Das galt für Cloud-Speicher, für Kommunikationstools, für Projektmanagement. Und es gilt jetzt für KI.


Solange Unternehmen keinen Ort schaffen, an dem Mitarbeitende KI sicher, kontrolliert und produktiv nutzen können, werden Mitarbeitende eigene Wege finden. Das ist kein Vorwurf an die Mitarbeitenden. Es ist eine Beschreibung dessen, was passiert, wenn Organisationen auf eine Veränderung nicht reagieren, die längst stattgefunden hat.


Die Frage ist nicht, ob KI genutzt wird. Die Frage ist, ob die Organisation davon weiß.


Es gibt Plattformen, die Unternehmen genau diesen Ort bieten: eine kontrollierte Umgebung für KI-Nutzung, die Schatten-IT überflüssig macht, statt sie zu bekämpfen.