美政府爆發(fā)AI分歧:多機構(gòu)質(zhì)疑馬斯克Grok安全性 國防部執(zhí)意部署

馬斯克
北京時間2月28日,據(jù)《華爾街日報》報道,知情人士透露,近幾個月來,多個美國聯(lián)邦機構(gòu)的官員對埃隆·馬斯克(Elon Musk)旗下xAI公司開發(fā)的AI工具的安全性和可靠性提出了擔憂。這表明,美國政府內(nèi)部在部署哪種AI模型問題上依舊存在分歧。
盡管存在這些擔憂,但是美國國防部在本周做出決定,同意允許xAI的聊天機器人Grok在機密環(huán)境中使用,從而使得xAI成為美國一些最敏感、最機密行動的核心參與者。
《華爾街日報》審閱的一份總務(wù)管理局(GSA)在1月15日的報告概要顯示,該機構(gòu)已在報告中指出了Grok的安全問題。該報告概要稱,Grok-4“未達到總務(wù)管理局及一個實驗性聯(lián)邦A(yù)I平臺對其在聯(lián)邦層面普遍使用的安全性和一致性預(yù)期”。
更詳細的33頁完整報告討論了公共安全事件以及總務(wù)管理局自行測試的結(jié)果,并得出結(jié)論認為,即使政府有限度地使用Grok,也需要嚴格且多層級的監(jiān)管,否則引入Grok將“帶來更高且難以管控的安全風險”。
AI政治化
在美國政府內(nèi)部,各機構(gòu)正競相將AI部署到各種用途中,但關(guān)于使用何種模型的爭論已日益政治化。據(jù)知情人士透露,包括白宮在內(nèi)的美國高級官員認為,Anthropic在安全問題上的公開立場以及它與民主黨主要捐贈者的關(guān)系,可能使該公司過于“覺醒”,難以成為可靠的供應(yīng)商。
美國總統(tǒng)特朗普周五表示,聯(lián)邦政府將停止與Anthropic的合作,并指示所有聯(lián)邦機構(gòu)立即停止使用其技術(shù)。此前,五角大樓已要求Anthropic在周五前同意對美軍使用其技術(shù)放寬規(guī)定。

Grok
在xAI與軍方達成協(xié)議之前,Anthropic是唯一獲批準用于機密用途的AI開發(fā)商。xAI對Grok更為寬松的控制,以及馬斯克在言論自由上的絕對主義立場,使其成為對五角大樓更具吸引力的選擇。
寬松的風險
其他一些官員則質(zhì)疑,Grok較為寬松的控制本身是否會帶來風險。
據(jù)知情人士透露,近幾個月來,聯(lián)邦政府采購部門總務(wù)管理局的最高官員埃德·福斯特(Ed Forst)曾向白宮官員發(fā)出警告,提醒Grok可能存在的安全問題。他手下的其他總務(wù)管理局官員也曾對Grok提出過安全擔憂,認為該模型存在諂媚傾向,且極易因錯誤或有偏見的數(shù)據(jù)而被操縱或帶偏,從而構(gòu)成潛在的系統(tǒng)性風險。
當時(去年12月底至今年1月初),Grok正因為允許對兒童照片等圖像進行性化編輯而備受抨擊。美國政府官員認為,這一問題凸顯了Grok可能被惡意行為者利用的風險。
知情人士稱,此事驚動了白宮幕僚長蘇茜·威爾斯(Susie Wiles),她就此致電了xAI的一位高管。該高管告訴她,xAI正在努力解決導(dǎo)致Grok過度順從的安全問題。美國政府通過馬斯克的“政府效率部”招募而來的總務(wù)管理局高級采購官員喬什·格魯恩鮑姆(Josh Gruenbaum)向政府官員保證,供政府使用的Grok平臺與公共平臺是分開的。知情人士稱,威爾斯對此表示滿意。
馬斯克曾表示致力于防止兒童受剝削。他在今年1月宣布,公司將把圖像生成和編輯工具的使用權(quán)限限制在付費用戶范圍內(nèi)。截至發(fā)稿,馬斯克及其xAI公司未回應(yīng)置評請求。
近幾周,總務(wù)管理局官員接到指示,要求將xAI的Logo放置在一個名為USAi的工具上。該工具本質(zhì)上是一個供聯(lián)邦員工試驗不同AI模型的“沙盒”。據(jù)知情人士透露,Grok此前一直未能接入USAi平臺,主要原因在于安全擔憂,并且目前仍未接入。USAi官網(wǎng)上確實展示了xAI的Logo,但目前僅提供來自Anthropic、谷歌和Meta的模型。
知情人士稱,總務(wù)管理局內(nèi)一個研究AI的團隊,已將指出Grok安全問題的報告分發(fā)給了該機構(gòu)的高層官員。這份更詳細的報告指出,Grok的安全故障并不僅限于邊緣情況,它還“反映出在無防護配置下對于不安全順從的更普遍傾向”。
格魯恩鮑姆在一份聲明中表示,該機構(gòu)高度重視AI安全。“我們通過全面的內(nèi)部審查流程,對包括xAI在內(nèi)的前沿AI模型進行嚴格評估。在此次事件中,我們遵循了既定程序,并堅持按計劃推進Grok的部署。”他表示。
據(jù)知情人士透露,兩周前,五角大樓負責人AI主管馬修·約翰遜(Matthew Johnson)辭職,部分原因是他擔心,在國防部大力擴展AI能力的過程中,安全與治理已被置于次要位置。
此前,約翰遜的團隊曾分發(fā)備忘錄,強調(diào)了Grok的安全問題,并質(zhì)疑其是否符合政府倫理和標準。這些備忘錄已通過五角大樓的指揮系統(tǒng)向上呈報。
當被聯(lián)系發(fā)表置評時,約翰遜指向了領(lǐng)英上宣布離職的帖子。他在帖子中表示,為自己在國防部“負責任AI部門”的團隊感到自豪,他們是“一群真正低調(diào)的專業(yè)人士,影響力巨大,卻鮮為人知”。“我們不斷面臨看似不可能的局面,但總能通過堅韌不拔的精神和無數(shù)個通宵達旦的努力完成任務(wù)。”他表示。
五角大樓發(fā)言人肖恩·帕內(nèi)爾(Sean Parnell)在一份聲明中表示,該部門“對美國國家級頂尖AI公司之一的xAI的加入感到興奮,并期待著在不久的將來將Grok部署到其官方AI平臺GenAI.mil上。”
特定安全問題
據(jù)知情人士透露,負責美國大部分情報搜集和處理工作的國家安全局,在2024年11月對包括Grok在內(nèi)的大語言模型進行了一次機密評估。評估認定,Grok存在Claude等其他模型所沒有的特定安全問題。知情人士稱,這一結(jié)論起到了警示作用,使得五角大樓的部分部門對使用Grok望而卻步。
上個月,在美國軍方抓捕委內(nèi)瑞拉前總統(tǒng)馬杜羅的行動中,Anthropic的Claude被投入使用,這加劇了該公司與五角大樓之間的緊張爭端。
Anthropic的使用準則禁止將Claude用于助長暴力、開發(fā)武器或?qū)嵤┍O(jiān)控,并且該公司拒絕讓軍方在所有合法場景下使用其模型。而xAI則同意了相關(guān)條款。
xAI通過去年7月與五角大樓AI辦公室簽訂的一份合同,成功在五角大樓站穩(wěn)了腳跟。谷歌、OpenAI和Anthropic也獲得了這份合同,該合同價值高達2億美元。谷歌和OpenAI的模型獲準用于非機密環(huán)境,但不能用于機密活動。

美國國防部長赫格塞斯
OpenAI CEO薩姆·奧特曼(Sam Altman)周四對員工表示,公司正在與國防部合作,探討能否在保持與Anthropic相同的安全防護措施的前提下,將其模型用于機密環(huán)境。谷歌和OpenAI的員工簽署了一份在線請愿書,敦促各自公司堅守同樣的底線。
AI及安全分析人士表示,直到最近,軍方還更傾向于使用Claude而非Grok,因為業(yè)內(nèi)許多人認為前者是更可靠的模型。
“在服務(wù)戰(zhàn)爭部這類客戶所需要的能力上,我不認為它們目前是旗鼓相當?shù)摹!敝菐鞈?zhàn)略與國際問題研究中心專注于AI領(lǐng)域的高級顧問格雷戈里·艾倫(Gregory Allen)表示。他曾參與制定美國國防部的AI戰(zhàn)略。
拜登政府拒絕Grok
據(jù)知情人士透露,在拜登政府執(zhí)政期間,五角大樓下屬的首席數(shù)字與AI辦公室曾拒絕使用Grok。他們的擔憂包括:Grok所使用的訓練數(shù)據(jù)來源難以追蹤,未能遵循聯(lián)邦政府在負責任人工智能方面的標準,且安全防護措施薄弱。知情人士稱,xAI也沒有充分嘗試通過“入侵”自身技術(shù)來識別和修復(fù)漏洞,這一過程在科技領(lǐng)域被稱為“紅隊測試”。
在政府使用環(huán)境中對Grok進行過評估的人士表示,最近的測試表明,該聊天機器人比其他模型更容易受到“數(shù)據(jù)投毒”的攻擊,即經(jīng)過篡改、帶有偏見或不準確的數(shù)據(jù)會污染底層數(shù)據(jù)集。
不過,據(jù)知情人士透露,美國官員已認定,Grok在模仿對手行為方面表現(xiàn)出色,這在兵棋推演等場景中有用。