首頁 > 科技 > 正文

Anthropic 與 Pentagon 爭議:AI 安全面臨嚴峻考驗

科技 ✍️ Jan de Vries 🕒 2026-03-16 17:51 🔥 閱讀: 1
封面:Anthropic 與 AI 爭議

Anthropic,這間極具前景的 AI 助理 Claude 的開發公司,突然之間成為了政治與軍事辯論的焦點。正當科技界熱議像 Claude Code 這類生成式 AI 應用,在未來幾年將如何顛覆我們的工作模式之際,華盛頓卻傳出截然不同的聲音:五角大樓盯上了這家公司,此舉引發了外界對私隱和全球穩定性的擔憂。如果你以為 AI 倫理只是學術界的議題,現在就是時候要清醒了。

Anthropic 的崛起:從理想主義到身處風眼

要了解這場風波,我們得回顧 Anthropic 的成立。2019 年,一群研究人員離開 OpenAI,決心另闢蹊徑,將重點放在 AI 安全之上。他們希望建構的 AI 不僅要聰明,更要可靠和可控。這項努力的成果,就是Anthropic 的 Claude,一位以其倫理準則見稱的 AI 助理。然而,恰恰是這種對安全性的強調,如今與美國軍方的利益產生衝突。在《擴展時代:AI 口述史,2019-2025》一書中,已描繪了 AI 革命初期那份理想主義,一旦遇上真正的金錢和權力博弈時,將如何備受考驗。我們現在就正正處於這個關鍵時刻。

與五角大樓的衝突:一個法律雷區

據知情人士透露,Anthropic 與五角大樓之間的矛盾,正好體現了目前更廣泛的緊張局勢。一方面,由敢言 CEO Alex Karp 領導的 Palantir 等公司,正推動 生成式 AI 應用整合模式,認為將大型語言模型整合到國防應用中蘊藏巨大商機。另一方面,批評者警告,這可能會催生出一個新型的數碼全景監視系統,像 Claude 這類 AI 系統或會被用於監控,甚至發展成自主武器。Karp 最近強調,他與 Anthropic 的 Claude 合作,正是為了提升透明度,然而,業界始終籠罩著被五角大樓列入黑名單的陰影。

為何這事件如此一觸即發?最近,OpenAI 和 DeepMind 的員工聯署提交了一份「法庭之友陳述書」,在針對國防部的訴訟中支持Anthropic。這是一個史無前例的時刻:競爭對手聯成一線,試圖阻止他們的技術以他們認為不道德的方式被應用。此案的裁決,將可能為全球如何處理 AI 在軍事領域的應用開創先例。這不再純粹是技術問題,更關乎一個根本性問題:AI 應否被用作武器。

對荷蘭有何影響?

對荷蘭科技界而言,這是一個重要的警示。荷蘭一直致力將自己定位為負責任 AI 發展的先行者。圍繞Anthropic的討論正好說明,倫理問題已不再是紙上談兵。任何採用Anthropic 的 Claude 或同類模型的企業,都必須為未來做好準備,迎接政府對透明度及應用範圍提出更嚴格要求的時代。將 AI 融入國防或關鍵基礎設施等敏感領域,必須採取深思熟慮的策略。尤其是在歐洲,隨著 AI 法案即將出臺,我們需要作出的抉擇,將遠遠超越單純的商業利益考慮。

這種策略的關鍵部分,在於開發者如何將 AI 整合到應用程式之中。這些整合方式,即所謂的生成式 AI 應用整合模式,最終決定了我們對技術的控制權。Anthropic 推出了Claude Code 這款工具,旨在幫助開發者編寫安全且高效的程式碼,然而,即使是最好的工具,若應用於錯誤的環境,亦可能被濫用。因此,歐洲企業,包括荷蘭在內,現在就必須深思其 AI 應用的倫理界線。

值得關注的重要發展

  • 訴訟進展:法院將如何裁決五角大樓使用 AI 一事?Anthropic 在此事中又扮演著什麼角色?
  • 科技巨頭的取態:會有更多公司表態支持還是反對 Anthropic?OpenAI 和 DeepMind 員工的支持已說明了部分問題。
  • 歐洲法規:歐盟將如何處理 AI 在國防領域的應用?這對於使用美國 AI 模型的荷蘭公司又有何影響?
  • 技術發展:Claude Code 及其他生成式 AI 工具有哪些最新功能?我們如何才能安全地運用它們?

Anthropic 正處於創新與倫理的交叉點。未來一段時間將見證,在地緣政治緊張局勢與科技進步並存的現實中,這家公司能否堅守其理想。至少,現在有一點已經非常明確:有關 AI 安全的討論,已徹底走出學術象牙塔,正式闖入現實世界。而這個世界,從華盛頓到阿姆斯特丹,將從此不一樣。