首頁 > 科技 > 正文

OpenAI 又有安全漏洞?從 ChatGPT 數據洩露到 GitHub 令牌被盜⋯⋯你間企業仲安全嗎?

科技 ✍️ 김지훈 🕒 2026-03-31 16:01 🔥 閱讀: 2

封面圖

ChatGPT 改變日常,OpenAI 的技術更係顛覆緊企業嘅遊戲規則。但喺呢個夢幻速度底下,「安全」二字會唔會太輕易被忽視?上星期業界已經開始議論紛紛,結果終於爆鑊。證實出現連環針對 OpenAI 核心模型嘅安全漏洞。唔止係黑客玩吓咁簡單,而係涉及 DNS 數據走私(Data Smuggling)呢類精密手法,以至能夠整份 GitHub 令牌偷走嘅指令注入(Command Injection)漏洞。而家已經唔係「得閒睇下 AI 趣聞」嘅層次。如果你間企業正以 Azure OpenAI 為基礎發展業務,呢一刻就係檢查 企業負責任 AI 實際風險管理嘅最後黃金機會。

真正嚇人嘅唔係「窿」,而係「罅」

今次曝光嘅問題逐個拆解,會發現又諷刺又心寒。第一個係 ChatGPT 數據洩露漏洞。據內部消息,攻擊者可以透過特製嘅 DNS 回應,繞過防火牆將數據偷運出去。即係專攻「罅隙」。第二個更震撼。確認喺 OpenAI 嘅 Codex 模型發現漏洞,經惡意指令注入,可以成功盜取 GitHub 令牌。

簡單講,就係你平時唔為意,諗住「呢個 AI 幫我寫緊 code 咋嘛」嘅時候,背後你個珍貴嘅儲存庫鎖匙可能已經曝光緊。

  • 漏洞 A(DNS 數據走私): 繞過防火牆同 DLP 系統,有可能洩露 ChatGPT 對話內容。
  • 漏洞 B(Codex 指令注入): 喺 AI 生成嘅程式碼片段植入惡意指令,偷取 GitHub 令牌等敏感資料。
  • 共通點: 唔係普通 bug,而係戳中「設計上嘅盲點」。換句話說,AI 代理越自主行動,呢類風險就越大。

而家你準備好信「AI 代理」未?

近年有睇開技術書籍嘅朋友,一定明點解 AI Agents in Action 呢類書咁熱門。但今次事件顯示,代理越強大,要保持「可審計」(Auditable)狀態就越困難。超出單純用 Python 建立 LLM 應用程式嘅 Generative AI with LangChain 層次,企業環境中 Implementing MLOps in the Enterprise: A Production-First Approach 之所以變得真正必要,原因正正在此。

我觀察到,大部份韓國企業仍然只顧「模型準確度」或「回應速度」。但真正嘅勝負關鍵在於「可解釋」(Explainable)嘅模型、「持續可審計」嘅管道,以及「安全」嘅部署策略。即係 企業負責任 AI 嘅核心 —— 結合超大型雲端服務商與 Azure OpenAI 嘅可解釋、可審計、安全模型實用 AI 風險管理 框架,已經到咗需要上場嘅時候。

當然,Microsoft 嘅超大型雲端基礎架構好強大。但佢哋唔會幫你防禦上面嗰層應用程式同提示工程嘅「人為錯誤」。最終,OpenAI 今次修補得快唔快固然重要,但更重要嘅係我哋自己唔好停止思考「點樣先可以安全咁運用呢項技術」。

AI 嘅未來唔在於「更聰明嘅模型」,而係「更可信賴嘅系統」。如果企業同開發者對今次警告視若無睹,我敢講好快就會付出沉重代價。