KI-Tools wie GitHub Copilot revolutionieren deutsche Unternehmen – doch die Risiken wachsen

Admin User
2 Min.
Eine Werbung mit Robotern und Text.

KI-Tools wie GitHub Copilot revolutionieren deutsche Unternehmen – doch die Risiken wachsen

Deutsche Unternehmen setzen zunehmend auf KI-gestützte Programmierwerkzeuge wie GitHub Copilot – Vorreiter sind dabei große Namen wie SAP, Siemens und die Deutsche Bahn. Seit 2023 verzeichnen vor allem Tech-Startups und mittelgroße Softwarefirmen das stärkste Wachstum bei der Nutzung. Doch der Produktivitätsschub bringt neue Sicherheitsrisiken mit sich, denen sich die Unternehmen nun stellen müssen.

Der Aufstieg von KI-Assistenten hat die Arbeitsweise von Entwicklern grundlegend verändert: Wiederkehrende Aufgaben werden schneller erledigt, die Softwareentwicklung beschleunigt. Tools wie GitHub Copilot generieren Code-Snippets, beheben Fehler und schlagen sogar ganze Funktionen vor – die Produktivität steigt spürbar. Doch diese Effizienz hat ihre Tücken.

KI-generierter Code kann versehentlich hartcodierte Passwörter, API-Schlüssel oder andere sensible Daten enthalten, die bei unzureichender Prüfung zu Sicherheitslücken führen. Im Gegensatz zu herkömmlicher Software benötigen KI-Agenten oft weitreichendere Systemberechtigungen, was das Risiko von Missbrauch oder Datenlecks erhöht. Selbst alltägliche Interaktionen mit diesen Tools – etwa das Teilen von Eingabeaufforderungen oder Debug-Protokollen – können vertrauliche Informationen über den technischen Bereich hinaus preisgeben.

Ein weiteres wachsendes Problem ist die explosionsartige Zunahme von Maschinenidentitäten – digitale Berechtigungsnachweise, die von Servicekonten, Cloud-Workloads, IoT-Geräten und Automatisierungsskripten für den Zugriff auf Unternehmenssysteme genutzt werden. Mit der Integration immer mehr KI-gestützter Tools steigt die Zahl dieser Identitäten rasant an, was ihre Überwachung und Absicherung erschwert. Unkontrollierte oder übermäßig berechtigte Maschinenidentitäten werden so zu leichten Zielen für Angreifer.

Um diese Risiken einzudämmen, werden Unternehmen aufgefordert, ihre Sicherheitsstrategien zu überarbeiten. Dazu gehören spezifische Governance-Rahmen für Maschinenidentitäten sowie Schulungen für Entwickler, um KI-bedingte Bedrohungen zu erkennen. Ohne solche Maßnahmen könnten die Produktivitätsgewinne durch KI-Tools durch vermeidbare Sicherheitslücken zunichtegemacht werden.