Künstliche Intelligenz (KI) und maschinelles Lernen nehmen immer stärker eine zentrale Rolle ein, auch im Unternehmenskontext. Besonders KI-Systeme wie ChatGPT, die auf Sprachverarbeitung spezialisiert sind, bieten Unternehmen immense Möglichkeiten zur Effizienzsteigerung und Prozessoptimierung. Doch mit diesen Chancen gehen auch erhebliche Risiken einher die nicht unterschätzt werden dürfen. Hier kommt der Begriff „Governance“ ins Spiel, der die Notwendigkeit einer strukturierten und risikoorientierten Steuerung und Überwachung solcher Systeme betont.

Risiken und die Notwendigkeit von Governance

Die Nutzung von Public KI-Systemen birgt jedoch auch Gefahren, insbesondere wenn Mitarbeiter unbedacht sensible oder vertrauliche Informationen eingeben. Dies betrifft nicht nur personenbezogene Daten, die datenschutzrechtlichen Bestimmungen unterliegen, sondern auch interne Unternehmensinformationen, die für Wettbewerber von Interesse sein könnten.
Ein unachtsamer Umgang mit KI-Systemen kann zu schwerwiegenden Datenschutzverletzungen oder Verlust der Vertraulichkeit von sensiblen Informationen führen, auch lizenzrechtliche Fragen sollten vorab geklärt werden. Governance-Maßnahmen sind daher unerlässlich, um sicherzustellen, dass KI-Systeme rechtlich und sicher eingesetzt werden. Dies beinhaltet klare Richtlinien, Überwachungsmechanismen und regelmäßige Überprüfungen.

Es ist daher von entscheidender Bedeutung, dass Unternehmen eine robuste KI-Governance implementieren, die klare interne Richtlinien und Arbeitsanweisungen für den Umgang mit KI-Systemen etabliert. Dokumente zur Regelung zum Einsatz von KI-Systemen sollte mindestens folgende Aspekte abdecken:

  • Zweck und Geltungsbereich: Welche Ziele werden verfolgt?
  • Adressatenkreis: Welche Nutzergruppen werden angesprochen? Z.B. Anwender aus Marketing, HR, Data Science, IT, etc.
  • Abgrenzung: Welche KI-gestützten Systeme dürfen nicht verwendet werden? Welche Unternehmensdaten dürfen wo und wie verwendet werden? In welchen Prozessen wird die Nutzung stärker eingeschränkt?
  • Qualitätssicherung: Wie werden durch KI generierte Inhalte geprüft? Sind Ergebnisprüfungen notwendig, wie z.B. bei Software-Entwicklung oder administrativ genutzten Skripten?
  • Ggfs. eine Whitelist von geprüften und erlaubten KI-gestützten Systemen (z.B: ChatGPT, Deepl, Microsoft Copilot o.ä.)
  • Vorgaben zur regelmäßigen Prüfung der erlaubten Systeme, sowie Aufnahme neuer Systeme

Fazit

Während KI-Systeme zweifellos erhebliche Vorteile für Unternehmen bieten, ist eine solide Governance unerlässlich, um die Risiken zu minimieren und das volle Potenzial dieser Technologie verantwortungsbewusst zu nutzen. Ein pauschales Verbot ist nicht zielführend, vielmehr sollten Unternehmen die Chancen nutzen und gleichzeitig durch Governance-Maßnahmen die Risiken kontrollieren. Handlungsempfehlungen und Schulungen zum sinnvollen Einsatz sind ebenfalls ratsam, sodass der Nutzungserlaubnis ein unternehmerischer Nutzen folgt.