Technik und Wissen
  • Suche
  • Facebook Instagram Linkedin
  • Themen
    • Fertigung
    • Automation
    • Digitalisierung
    • News
    • Content-Hubs
    • Specials
    • Magazin
      • Abo
      • Printmagazin
    • Newsletter
    • Über uns
      • Mediadaten
      • Dienstleistung
      • Impressum
      • Datenschutz
      • Kontakt & Team
  • Magazin
    • Abo
    • Printmagazin
  • Newsletter
  • Über uns
    • Mediadaten
    • Dienstleistung
    • Impressum
    • Datenschutz
    • Kontakt & Team
  • Abo
  • Mediadaten

Risiken und Chancen der Schatten-KI

Schatten-KI

Wenn Mitarbeitende KI im Verborgenen nutzen, ist das selten böse Absicht. Meist ist es eine Art der Effizienzsuche und sogar ein Kompliment. Genau, aber darin liegt die Chance und das Risiko zugleich.


Textquelle: Gastautor Stefan Müller, www.stefanai.de
Redaktionelle Bearbeitung: Technik und Wissen

Die Szene ist banal und doch folgenschwer: Eine Datei wandert an die Privat-Mail, wird in ChatGPT, Gemini oder Claude hochgeladen, das Ergebnis landet zurück im Firmenkonto. Was mit den Daten auf fremden Servern geschieht, weiss niemand so genau; ob Schutzvorkehrungen eingehalten wurden, ebenso wenig.

Für dieses Verhaltensmuster gibt es einen Begriff: Schatten-KI – jede KI-Nutzung ausserhalb der freigegebenen, protokollierten und geregelten Unternehmens-IT, also ohne Richtlinien, TOMs, Logging, Schulung oder AVV. Nicht KI ist das Problem oder das Tool, sondern der unbeschwerte und kaum nachvollziehbare Nutzungsstil.

Seit Ende 2022 ist generative KI zum Alltagswerkzeug geworden; weltweit nutzen hunderte Millionen Menschen sie wöchentlich, ein erheblicher Teil davon im Job. In Deutschland zeigt sich dasselbe Bild: In vielen Unternehmen arbeiten Beschäftigte mit privaten KI-Accounts jenseits der Vorgaben. Sie tun dies, weil interne Lösungen fehlen oder schlechter funktionieren. Weil oftmals Zeitdruck belohnt wird und das, was kurzfristig produktiv wirkt. Oder weil Zuständigkeiten unklar sind und vielerorts eine unausgesprochene «mach’s einfach»-Kultur herrscht.

Man richtet sich in der Grauzone ein

Wer dann auch noch im bestehenden Wissenssystem keine Antwort findet, tippt die Frage eben in ein grosses Sprachmodell. Das spart Minuten, auch wenn die Antwort nicht perfekt ist. Das funktioniert umso besser, je mehr Daten mit hochgeladen werden. PDFs, Word-Dateien oder Excel-Tabellen. Je mehr, desto besser. Führungskräfte dulden das bisweilen still, experimentieren selbst und richten sich in der Grauzone ein. Auch sie haben schliesslich ihre Zielvorgaben.

Damit sind die Risiken benannt. Datenschutz und Geschäftsgeheimnisse geraten unter Druck, wenn Personen-, Kunden- oder vertrauliche Unternehmensdaten unkontrolliert abfliessen. Selbst wenn Anbieter zusätzliche Datenkontrollen anbieten, passen sie selten exakt zum individuellen Rechtsrahmen. In der Schweiz tragen Entscheider:innen bei geduldeter Schatten-KI datenschutz-, zivil- und strafrechtliche Risiken.

Nach dem Schweizer Datenschutzrecht drohen natürlichen Personen bei vorsätzlichen Verstössen gegen Informations-, Sorgfalts- oder Sicherheits­pflichten – etwa ohne Auftragsverarbeiter-Vertrag oder bei unzulässiger Auslandsübermittlung – persönliche Bussen bis CHF 250’000. Zivilrechtlich haften Organmitglieder für Organisationsverschulden, wenn fehlende Leitplanken (Richtlinien, SSO/Logging, Schulungen/Reviews) zu Schäden wie Datenlecks, Vertragsstrafen oder Produktionsausfällen führen. Ausserdem kann das unbefugte Offenlegen oder Verwerten von Geschäftsgeheimnissen unlauter und strafbar sein.

 

KI im Büro

Diese Fragen müssen Sie sich stellen

Auch Qualitätsrisiken sind real: unsaubere Prompts, fehlender Kontext und kein Vier-Augen-Prinzip befördern Fehler oder Halluzinationen; der vielzitierte «AI Workslop» kostet am Ende mehr Zeit, als er spart. Schliesslich drohen Wissensinseln und Lock-ins: Ergebnisse liegen in Privat-Accounts, werden nicht dokumentiert, gehen bei Wechseln verloren, während parallele Tool-Experimente einen Flickenteppich statt Wissenslandkarte erzeugen.

Ob in einer Organisation Schatten-KI existiert, lässt sich mit wenigen Fragen leicht herausfinden:

  • Liegt eine aktuelle KI-Richtlinie oder Betriebsvereinbarung vor?
  • Existieren freigegebene Tools mit zentraler Anmeldung (SSO)?
  • Werden Mitarbeitende regelmässig zu KI und Datenschutz geschult?
  • Gibt es Fälle von Datenkopien auf private Konten oder Geräte?
  • Finden sich in Dokumenten auffällige Textmuster («KI-Fingerprint»)?

Wenn mehr als zwei Fragen mit «Nein» beantworten werden, ist Schatten-KI wahrscheinlich bereits Realität in der Organisation.

Vom Risiko zur Innovations-Chance

Doch aus demselben Verhalten erwächst Potenzial. Wo Mitarbeitende freiwillig KI nutzen, entsteht Kompetenz: Menschen lernen, Probleme zu zerlegen, Prompts zu strukturieren, Ergebnisse zu prüfen. Richtig gelenkt, wird Schatten-KI zum Frühindikator für Innovations-Chancen. Sie zeigt, wo Prozesse zu langsam, zu unklar oder zu restriktiv (oder nicht restriktiv genug) sind – und wo man mit klaren Leitplanken Geschwindigkeit und Sicherheit zugleich gewinnen kann.

Solche Leitplanken sind kein Grossprojekt, sondern eine Führungsroutine in fünf ineinandergreifenden Bewegungen: Zuerst werden Ziele, Grenzen und Anwendungsfelder für KI in der Organisation festgelegt und zwar nicht abstrakt, sondern konkret für die wichtigsten Arbeitsprozesse. Darauf folgt eine verbindliche Vereinbarung mit der Belegschaft inklusive erlaubter Tools, Rollen und Konsequenzen. Diese muss regelmässig überprüft werden, weil sich Markt und Recht fortlaufend verändern.

Parallel startet ein kleiner, klar umrissener Pilot mit wenigen Personen und klaren Erfolgskriterien: Welche Aufgaben profitieren? Welche Prompts und Review-Schritte funktionieren? Was gehört automatisiert, was nicht? Die Ergebnisse münden in Standards (SSO statt Privat-Login, Logging, Freigabepfade, Prompt-Vorlagen, Vier-Augen-Checks), und sie werden durch zielgerichtete Schulungen abgesichert. Denn die «AI-Literacy» der EU ist keine Kür, sondern Compliance- und Qualitätssicherung zugleich. Am Ende steht nicht «die» KI-Einführung, sondern eine wiederholbare Taktung mit Prüfen, Lernen und Nachschärfen. Ein Innovationsprozess, der im besten Fall top-down und bottom-up funktioniert.

Balance aus Offenheit und Kontrolle

So entsteht die Balance aus Offenheit und Kontrolle: Mitarbeitende dürfen KI sichtbar und regelkonform einsetzen. Führung und IT behalten hingegen Überblick, ohne Innovation abzuwürgen. Die produktive Nutzung rückt ins Zentrum, nicht das heimliche Umgehen von Regeln. Wer das ernst nimmt, entdeckt schnell, dass ausgerechnet die Schattenseite den Weg ins Licht weist: Die inoffiziellen Workflows verraten, wo Reibung ist – und wo mit wenigen Anpassungen Tempo, Qualität und Sicherheit gleichzeitig steigen.

Wird sich dieses Spannungsfeld von selbst auflösen? Erledigt sich irgendwann Schatten-KI von allein?

Nein. Generative KI bleibt ein bewegliches Ziel; rechtlich, technisch und kulturell. Was heute genügt, ist morgen veraltet. Genau deshalb ist der Umgang mit KI keine einmalige IT-Massnahme, sondern eine dauerhafte Führungsaufgabe. Es müssen Prioritäten gesetzt, Rahmen geklärt, Vorbilder gefunden, Feedbackschleifen etabliert und Standards gepflegt. Wer diese Disziplin beherrscht, reduziert Haftungs- und Datenschutzrisiken, verhindert Wissensverluste – und verwandelt Schatten-KI vom Störfaktor in einen strukturierten Wettbewerbsvorteil.

 

+

Gastautor

Stefan Müller ist Referent, Berater und Software-Entwickler bei StefanAI – Research & Development. Er unterstützt Unternehmen und öffentliche Einrichtungen beim sicheren und produktiven Einsatz von KI.

www.stefanai.de • https://www.linkedin.com/in/stefanai/

  • Facebook
  • Twitter
  • LinkedIn
  • E-mail
  • tumblr
  • Reddit

Impressum

Textquelle: Stefan Müller

Bildquelle: zVg

Redaktionelle Bearbeitung: Technik und Wissen

Informationen

www.stefanai.de

Weitere Artikel

Messvorgang mit der CRYSTA-Apex 122010 3

Wie Messtechnik aus Japan Finnlands Motorenindustrie antreibt


ID-Reader der Serie ID-600: Qualitätsprüfung

Für anspruchsvolle Codelese-Aufgaben


Der Design-to-Cost-Ansatz in der Blechbearbeitung


  • Cybersecurity
  • IT-Security
  • KI
  • Künstliche Intelligenz
  • Software

Veröffentlicht am: 12.11.2025

Übersicht

Technik und Wissen
Unsere weiteren Fachmagazine
  • Impressum
  • Datenschutz
  • AGB
Wenn Sie Cookies akzeptieren, können wir Ihnen die bestmögliche Erfahrung auf dieser Website bieten.