奧特曼開出400萬年薪急招「末日主管」,上崗即迎「地獄模式」
奧特曼開出400萬年薪,意在為OpenAI購入一份「安全保險」!
近日,奧特曼發(fā)布帖子,計劃為OpenAI招募一位「準(zhǔn)備工作負(fù)責(zé)人(Head of Preparedness)」。
該崗位基礎(chǔ)年薪達(dá)55.5萬美元,再加上股權(quán),換算成人民幣起步價約400萬。

在硅谷,「55.5萬美元基礎(chǔ)年薪加股權(quán)」屬于極為罕見的高薪高管崗位,底薪越高,通常意味著崗位稀缺性越強(qiáng)、責(zé)任范圍越廣。
盡管OpenAI未公開股權(quán)規(guī)模,但該崗位的薪酬總包或許能達(dá)到百萬美元級別。
與高薪相匹配的是極具挑戰(zhàn)性的工作內(nèi)容。
奧特曼給這個崗位的定位就是「壓力巨大」「需立即深入核心」:
這會是一份壓力很大的工作,而且你幾乎一上來就要跳進(jìn)深水區(qū)。
關(guān)鍵時刻的關(guān)鍵角色
這份工作更像是一個「救火隊(duì)長」,甚至可以稱作「末日主管」。
其職責(zé)并非讓模型變得更聰明,而是要給持續(xù)變強(qiáng)的模型套上「安全圍欄」,管控好隨之而來的風(fēng)險。
用奧特曼的話來說,這是一個「關(guān)鍵時刻的關(guān)鍵角色」,模型正飛速發(fā)展,能創(chuàng)造諸多價值,但也開始帶來「實(shí)實(shí)在在的挑戰(zhàn)」。
他在招聘帖子中特別提及了過去一年發(fā)現(xiàn)的兩件事:
模型對心理健康存在潛在影響;
模型在計算機(jī)安全領(lǐng)域的能力邁入新階段,已能發(fā)現(xiàn)「高危漏洞」。
奧特曼強(qiáng)調(diào),我們在評估能力增長方面已有扎實(shí)基礎(chǔ),不過接下來的挑戰(zhàn)是如何防止這些能力被濫用,如何在產(chǎn)品及現(xiàn)實(shí)世界中最大限度降低其負(fù)面影響,同時讓大家繼續(xù)享受它帶來的巨大益處。
他認(rèn)為這是一個巨大且?guī)缀鯚o先例可循的難題,需要一個「更精細(xì)理解和更細(xì)致度量的環(huán)境」。
許多看似不錯的想法,一旦落地就會遇到棘手的例外情況和邊界問題。
所以,新招募的這位「準(zhǔn)備工作負(fù)責(zé)人」的職責(zé),就是在模型能力持續(xù)提升和應(yīng)用范圍不斷擴(kuò)大的前提下,設(shè)立一道安全防線:
如何用最前沿的技術(shù)武裝網(wǎng)絡(luò)安全防守方,同時確保攻擊者無法利用這些技術(shù)作惡。
奧特曼也為這份工作設(shè)定了目標(biāo):
最理想的狀態(tài)是,通過提升所有系統(tǒng)的安全性來實(shí)現(xiàn),比如更安全地推出生物領(lǐng)域的AI能力,以及增強(qiáng)對自我改進(jìn)系統(tǒng)安全運(yùn)行的信心。
模型能力提升
風(fēng)險也更「硬核」
過去我們談?wù)揂I風(fēng)險,往往如同發(fā)布天氣預(yù)報:可能會下雨,最好帶把傘。
隨著大模型能力的提升和技術(shù)的快速滲透,當(dāng)前的AI風(fēng)險更像是烏云密布的時刻:雨已經(jīng)落下,而且風(fēng)向還在變化。
一方面是模型變得更強(qiáng)了。
奧特曼提到了一個標(biāo)志性變化:
模型在計算機(jī)安全領(lǐng)域進(jìn)入新階段,「開始能發(fā)現(xiàn)關(guān)鍵漏洞」。
這句話細(xì)想起來令人后怕——當(dāng)模型能幫你找出漏洞時,它也可能被別人用來尋找漏洞。
正所謂道高一尺,魔高一丈。
另一方面,模型技術(shù)的普及也帶來了更多「硬風(fēng)險」,2025年已出現(xiàn)一些端倪。
比如,模型對心理健康的潛在影響。
進(jìn)入2025年,我們看到了不少關(guān)于「AI精神病」的報道:
有人將與機(jī)器人聊天當(dāng)作心理治療的替代方式,但在某些情況下,這會加劇心理健康問題,助長妄想等令人擔(dān)憂的行為。
今年10月,OpenAI曾表示正與心理健康專業(yè)人士合作,改進(jìn)ChatGPT與出現(xiàn)精神錯亂或自殘等危險行為用戶的互動方式。
除了心理健康,還有報道指出ChatGPT在法律文件中會產(chǎn)生幻覺,引發(fā)大量投訴。
此外,ChatGPT、Sora等應(yīng)用產(chǎn)品上線后,還帶來了深度偽造以及社會倫理等一系列挑戰(zhàn)。

例如,Sora曾在2025年10月因用戶生成「不尊重」內(nèi)容,暫停或封禁了馬丁·路德·金相關(guān)視頻的生成,并同步加強(qiáng)了歷史人物肖像相關(guān)的防護(hù)措施與退出機(jī)制。
因此,奧特曼要求這份工作要將安全從能力評估、威脅建模、緩解措施形成一條可落地的鏈條,構(gòu)建一個「連貫、嚴(yán)謹(jǐn)且可操作、可擴(kuò)展的安全流程」。
填補(bǔ)「安全空心化」的焦慮
這次招聘,更像是對OpenAI安全團(tuán)隊(duì)的緊急補(bǔ)充與強(qiáng)化。
OpenAI的核心使命是以造福全人類的方式開發(fā)人工智能,從創(chuàng)立之初就將安全協(xié)議(safety protocols)作為運(yùn)營的核心部分。
然而,一些前員工表示,隨著OpenAI開始推出產(chǎn)品和盈利壓力增大,公司開始將利潤置于安全之上。
一個標(biāo)志性事件就是「超級對齊」(superalignment)團(tuán)隊(duì)的解散。

2024年5月,OpenAI的「超級對齊」團(tuán)隊(duì)解散,其工作將被并入或吸收到其他研究項(xiàng)目中。

超級對齊團(tuán)隊(duì)的兩位共同負(fù)責(zé)人Ilya Sutskever和Jan Leike也先后離職,其中Leike離職時尖銳地批評了公司,稱公司已偏離確保技術(shù)安全部署的使命:
「構(gòu)建比人類更聰明的機(jī)器本身就是一項(xiàng)危險的嘗試……但在過去幾年里,安全文化和流程已讓位于光鮮的產(chǎn)品」。
Leike表示,OpenAI未能投入足夠的計算資源來研究如何引導(dǎo)和控制那些遠(yuǎn)比人類聰明的人工智能系統(tǒng)。
另一名前員工Daniel Kokotajlo也表示,他辭職是因?yàn)椤笇驹谕ㄓ萌斯ぶ悄埽ˋGI)出現(xiàn)時能否負(fù)責(zé)任地行事逐漸失去信心」。

當(dāng)時奧特曼針對Leike的發(fā)帖回應(yīng)稱,他說得對:「我們還有很多事情要做;我們承諾會去做」。
OpenAI聯(lián)合創(chuàng)始人兼總裁Greg Brockman也表示,公司愿意為了安全問題推遲產(chǎn)品發(fā)布:
「首次弄清楚如何讓一項(xiàng)新技術(shù)變得安全并非易事,我們既相信要實(shí)現(xiàn)巨大的潛在收益,也致力于努力降低重大風(fēng)險」。
在超級對齊團(tuán)隊(duì)解散約兩個月后,7月AI安全負(fù)責(zé)人Aleksander Madry被調(diào)崗。

OpenAI原AI安全負(fù)責(zé)人Aleksander Madry
10月23日,OpenAI長期政策研究人員、AGI readiness團(tuán)隊(duì)高級顧問Miles Brundage離開OpenAI。
隨著Brundage的離開,AGI readiness的子團(tuán)隊(duì)economic research division將劃歸新任首席經(jīng)濟(jì)學(xué)家Ronnie Chatterji管理,其余部分則分散到其他部門。
Kokotajlo曾表示,「OpenAI最初約有30人研究與通用人工智能(AGI)相關(guān)的安全問題,一系列的離職使得這一人數(shù)減少了近一半」。
安全團(tuán)隊(duì)負(fù)責(zé)人及員工的離職、調(diào)崗,項(xiàng)目不斷被分拆、重組,由此引發(fā)的「安全空心化」焦慮,正是這次奧特曼高調(diào)招聘的大背景。
當(dāng)「前沿模型」的能力逼近更高邊界時,谷歌、Anthropic、OpenAI、xAI等大模型廠商在AI軍備競賽中,都面臨同一個問題:如何在加速發(fā)展中避免失控?
而此次招募的「準(zhǔn)備工作負(fù)責(zé)人」的工作,就是要把不斷變強(qiáng)的模型,在現(xiàn)實(shí)使用場景中轉(zhuǎn)化為一個能評估、能落地、能迭代的「可執(zhí)行的安全管線」。
當(dāng)AI競賽進(jìn)入關(guān)鍵階段,守住安全底線才是立于不敗之地的關(guān)鍵。
參考資料:
https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12
本文來自微信公眾號“新智元”,作者:新智元,編輯:元宇,36氪經(jīng)授權(quán)發(fā)布。
本文僅代表作者觀點(diǎn),版權(quán)歸原創(chuàng)者所有,如需轉(zhuǎn)載請在文中注明來源及作者名字。
免責(zé)聲明:本文系轉(zhuǎn)載編輯文章,僅作分享之用。如分享內(nèi)容、圖片侵犯到您的版權(quán)或非授權(quán)發(fā)布,請及時與我們聯(lián)系進(jìn)行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com




