Startseite > Technologie > Artikel

OpenAI, schon wieder ein Sicherheitsloch? Von ChatGPT-Datenlecks bis zum Diebstahl von GitHub-Tokens... Ist Ihr Unternehmen sicher?

Technologie ✍️ 김지훈 🕒 2026-03-31 10:01 🔥 Aufrufe: 2

Titelbild

ChatGPT verändert unseren Alltag, und die Technologien von OpenAI revolutionieren die Geschäftswelt. Doch geht unter dieser atemberaubenden Geschwindigkeit das Thema «Sicherheit» nicht viel zu oft unter? In der Branche rumorte es bereits seit letzter Woche – und nun ist es passiert. Eine Reihe von Sicherheitslücken in OpenAIs Kernmodellen wurde bestätigt. Es handelt sich nicht um einfache Hacker-Spielchen, sondern um raffinierte Methoden wie DNS-Data-Smuggling und Command-Injection-Schwachstellen, die den vollständigen Diebstahl von GitHub-Tokens ermöglichten. Das ist keine «KI-News zum Spass» mehr. Wenn Ihr Unternehmen gerade auf Azure OpenAI aufbaut, dann ist jetzt der letzte Goldene Moment, um das praktische Risikomanagement für Responsible AI in the Enterprise zu überprüfen.

Das wirklich Beunruhigende ist nicht das «Loch», sondern die «Lücke»

Wenn man die aktuellen Vorfälle genauer betrachtet, sind sie gleichermassen faszinierend wie beunruhigend. Erstens: die ChatGPT-Schwachstelle mit Datenlecks. Laut internen Quellen war es Angreifern möglich, durch speziell manipulierte DNS-Antworten Daten durch die Firewall zu schmuggeln. Sie haben die «Lücke» ausgenutzt. Zweitens, noch schockierender: In OpenAIs Codex-Modell wurde eine Schwachstelle entdeckt, durch die bösartige Command-Injection zum Diebstahl von GitHub-Tokens führen konnte.

Einfach gesagt: In dem Moment, in dem Sie beiläufig dachten «Dieser KI schreibt mir meinen Code», könnte im Hintergrund bereits der Schlüssel zu Ihren wertvollen Repositories preisgegeben worden sein.

  • Schwachstelle A (DNS-Data-Smuggling): Umgehung von Firewalls und DLP-Systemen, um ChatGPT-Konversationen nach aussen zu leiten.
  • Schwachstelle B (Codex-Command-Injection): Einschleusen schädlicher Befehle in KI-generierte Code-Snippets, um sensible Daten wie GitHub-Tokens zu stehlen.
  • Gemeinsamkeit: Es handelt sich nicht um einfache Bugs, sondern um gezielte Ausnutzung von «konzeptionellen blinden Flecken». Je autonomer KI-Agenten handeln, desto grösser wird dieses Risiko.

Sind Sie bereit, KI-Agenten zu vertrauen?

Wer sich in letzter Zeit mit Fachliteratur beschäftigt, weiss, warum Bücher wie AI Agents in Action derart gehypt werden. Doch wie dieser Vorfall zeigt: Je mächtiger die Agenten, desto schwieriger wird es, sie in einem «prüfbaren» (auditable) Zustand zu halten. Genau hier liegt der Grund, warum es über einfaches Bauen von LLM-Apps mit Python (Generative AI with LangChain) hinausgeht und eine Produktions-First-Strategie wie Implementing MLOps in the Enterprise: A Production-First Approach in Unternehmensumgebungen wirklich gefordert ist.

Meiner Beobachtung nach konzentrieren sich die meisten koreanischen Unternehmen noch immer nur auf «Modellgenauigkeit» oder «Antwortgeschwindigkeit». Aber der eigentliche Wettbewerb wird über erklärbare (explainable) Modelle, kontinuierlich prüfbare (auditable) Pipelines und sichere (safe) Bereitstellungsstrategien entschieden. Genau jetzt brauchen wir diesen Rahmen, der im Kern von Responsible AI in the Enterprise steckt: Practical AI Risk Management for Explainable, Auditable, and Safe Models with Hyperscalers and Azure OpenAI.

Natürlich ist die Hyperscaler-Infrastruktur von Microsoft leistungsfähig. Aber sie schützt nicht vor menschlichen Fehlern in den darauf aufbauenden Anwendungen und im Prompt-Engineering. Letztlich ist zwar wichtig, wie schnell OpenAI mit Patches reagiert hat, aber noch entscheidender ist, dass wir selbst nicht aufhören, uns zu fragen: «Wie können wir diese Technologie sicher nutzen?»

Die Zukunft der KI hängt nicht von «noch klügeren Modellen» ab, sondern von «vertrauenswürdigeren Systemen». Unternehmen und Entwickler, die diese Warnung ignorieren, werden meiner Überzeugung nach schon bald einen hohen Preis zahlen.