硅谷AI圈今年夏天的諸神之戰(zhàn)昨夜正式拉開序幕——OpenAI在GPT-2之后終于再次擁抱開源,發(fā)布了一個“號稱”最強的開源推理大模型gpt-oss.

谷歌同樣沒閑著,直接丟出了一個“開天辟地”式的大殺器——Genie 3。它可以讓用戶一句話生成一個長達數(shù)分鐘的可以交互的三維虛擬世界,效果炸裂。
而OpenAI的老冤家,不認AGI只管在AI編程賽道上蒙眼狂奔的Anthropic也不甘寂寞。它更新了自己最頂(gui)級的大模型:Claude Opus 4.1,將AI編程能力的上限再次提升。

雖然在不同維度上,昨晚的3個新產(chǎn)品發(fā)布都具有相當(dāng)重要的意義,但是這還只是未來幾天硅谷AI圈“神仙打架”的序幕,好戲還在后面呢。
而且就像御三家之前發(fā)布的所有產(chǎn)品一樣,背后團隊中,國人依然是中流砥柱。所以,就連硅谷的吃瓜群眾,也在期待來自東方的DeepSeek和Qwen。希望國內(nèi)的AI力量,不會缺席這場夏末的AI盛宴。

01 OpenAI終于迎來了他的DeepSeek時刻

OpenAI時隔6年首次推出“開放權(quán)重”大語言模型:gpt-oss-120b和gpt-oss-20b。兩個模型都采用了Transformer架構(gòu),并融入MoE設(shè)計。gpt-oss-120b總參數(shù)1170億,激活參數(shù)51億。gpt-oss-20b總參數(shù)210億,每token激活36億參數(shù)。
模型采用了分組多查詢注意力機制,組大小為8,以及旋轉(zhuǎn)位置編碼(RoPE),原生支持128k上下文。
性能上來看,OpenAI官方的說法是現(xiàn)在同體量下開源推理模型的SOTA:

gpt-oss-120b模型在核心推理基準測試中實現(xiàn)了與 OpenAI o4-mini 接近的性能,可以在單張80 GB GPU 上高效運行。gpt-oss-20b 在常見基準測試中能達到與 OpenAI o3-mini 類似的性能,可以在僅具有 16 GB 內(nèi)存的端側(cè)運行。


從模型體量上來看,OpenAI這次放出的兩個模型都是針對的本地部署的需求和市場,補齊之前的產(chǎn)品層面的短板。而且在許可證里,依然很雞賊的進行了限制,不允許年收入高于1億美元或者日活超過100萬的實體商用。
發(fā)布之后,網(wǎng)友們也迫不及待地進行了本地化的部署,性能反饋還不錯。

在RTX5090上運行20B的版本,每秒能達到160-180tokens的輸出速度。

模型能力上看,用戶的實際反饋也都還不錯。這位網(wǎng)友在M4 MacBook上一次通過了3個常用的編程能力測試。

根據(jù)大模型能力測試機構(gòu)Intelligence Evaluation公布的眾測結(jié)果,OpenAI這兩款模型的性能確實在遠遠小于DeepSeek R1和Qwen 3的體量下,獲得了接近于兩個中國開源模型的性能。

客觀地說,這次模型的發(fā)布最大的意義在于讓OpenAI再次回到了開源牌桌之上,讓用戶也多了一個方便單機本地部署,能力還不錯的模型可以選擇,但也只能算是一次補作業(yè)式的發(fā)布。而所有人對OpenAI的期待,依然還是落在之后到來的GPT-5上,到底OpenAI能給業(yè)界還能帶來多大的震撼,讓我們拭目以待。
02 谷歌Genie 3:炸裂,但是期貨
雖然OpenAI沒有放出GPT-5,但是谷歌也不會允許OpenAI獨食流量,發(fā)布了一個非常“戰(zhàn)未來”的模型——Genie-3。
像開頭的視頻一樣,這是一個文生虛擬世界的模型,允許用戶用文字生成一個720p清晰度24 FPS流暢度的動態(tài)世界實時交互的世界模型,具有非常好的一致性和真實感。用戶可以自己用文字或按鈕的方式來控制探索這個世界中的各個細節(jié)。

圖注:走到一個鋁架子旁邊,然后走到那個大型的紅色工業(yè)攪拌機旁邊
通俗一點來說,如果說像Sora或者Veo 3這樣的文生視頻模型對應(yīng)的是電影的話,Genie-3生成的就是一個游戲或者說一個虛擬劇本殺。用戶不僅是在屏幕前看這個世界,更可以主動的通過自己的行為,和這個生成的世界進行互動。
而不同于視頻模型的是,這樣的“世界模型”需要對用戶的行進實時的反饋和互動,而且還必須符合現(xiàn)實世界的基本邏輯規(guī)律。比如你用手向后推一個漂浮的氣球,氣球不能向天上飛,而要向后飛。你用手輕推一輛汽車,它不能馬上就高速跑起來。
所以如果用戶對于視頻模型中一些小的瑕疵還能接受的話,世界模型就一定需要對物理反饋處理的非常精準,雖然不一定能到LeCun要求的“理解物理世界”的水平,但是相比于視頻模型生成的一閃而過的畫面,生成的虛擬世界如果處理不好這些物理交互邏輯,那就是沒有意義的產(chǎn)品。
而我們看到谷歌提供的Demo中,隨著用戶輸入不同的指令,世界會實時給出不同的反饋,生成不同的內(nèi)容。想要做到這一點,需要的處理的技術(shù)問題是非常有挑戰(zhàn)性的。

而如果在未來,谷歌真的能把這條路徹底跑通,且不說“世界模型”背后的技術(shù)對機器人和自動駕駛領(lǐng)域會不會產(chǎn)生什么顛覆性的改變,就算對VR,游戲以及文生視頻行賽道生的影響,也將是難以想象的。
可惜的是,雖然Genie 3看起來足夠驚艷,但依然停留在官方演示階段,所有的發(fā)布內(nèi)容都為官方放出,沒有提供普通用戶試用,還是經(jīng)典的谷歌版期貨。
但雖說是期貨,可現(xiàn)如今,這樣具有跨時代意義的產(chǎn)品和技術(shù)突破,似乎只有對AI進行飽和式火力覆蓋的谷歌,才能做到。
從技術(shù)層面來講,即便是像OpenAI這樣的創(chuàng)業(yè)公司,也只能能在Transformer這一類模型上和谷歌形成你追我趕之勢。雖然一年多以前,是OpenAI推出的Sora炸裂全場,拉爆了人們對于視頻生成模型的期待。但是真正有實力能持續(xù)投入,在時間維度上持續(xù)保持領(lǐng)先的產(chǎn)品,依然是谷歌和它的Veo。而Genie 3,也是谷歌多年默默耕耘,迭代了數(shù)個大版本的成果。

考慮到即便是Transformer,也是發(fā)源于谷歌,希望它能善待每一株火苗,早日讓我們感受到燎原的熱浪。
03 偏科冠軍的執(zhí)著:2%提升

一張圖就能很好地概括Anthropic昨晚的發(fā)布,AI編程能力上限又提高了2%。
但需要強調(diào)的是,這里的2%,不僅僅是Claude自己的提升,而是代表了現(xiàn)在AI編程能力的上限。

因為從用戶真實反饋和市場占有率上來看,Claude Opus幾乎就是現(xiàn)在AI Coding的口碑和占有率最高的模型。

而AI編碼,幾乎就是現(xiàn)階段大模型商業(yè)化最徹底,未來上限最高的一個分支賽道。所以面對OpenAI的血脈壓制,Anthropic選擇的是將所有資源和精力都花在提升自己模型的編程能力上。通過這個競爭策略,讓自己能夠持續(xù)留在大模型商業(yè)化的牌桌上,保留同谷歌和OpenAI持續(xù)對抗的可能。
所以從這個角度說,Opus 4.1的發(fā)布,似乎是在另外兩家發(fā)布補課和“戰(zhàn)未來”的產(chǎn)品時,向自己的所有客戶堅定地說,放心,你們選我錯不了。
04 AI圣誕夜背后的國人力量
昨夜硅谷AI圈的三彈連發(fā),背后依然少不了華人科學(xué)家和工程師的身影。

OpenAI發(fā)布的gpt-oss系列模型的核心團隊成員之一,就有參與多個項目的北大校友任泓宇。

在OpenAI期間,他主要負責(zé)后訓(xùn)練團隊,主要研究方向為語言模型訓(xùn)練優(yōu)化。
而他現(xiàn)在,也已經(jīng)被小扎重金挖到了Meta,成為了Meta超(一)級(億)智(薪)能(酬)實驗室的成員。
在去OpenAI之前,他曾經(jīng)在蘋果,微軟,谷歌,英偉達都工作或者實習(xí)過。2018年從北大本科畢業(yè)后,他在斯坦福大學(xué)獲得了計算機博士學(xué)位。

而在社交網(wǎng)絡(luò)上,他也專門感謝了另一位華人科學(xué)家Wang Xin在項目后訓(xùn)練階段的貢獻。

她本科畢業(yè)于上海交大,后來在加州大學(xué)伯克利分校獲得了計算機博士學(xué)位。

之后在微軟,蘋果工作過,于今年2月份加入了OpenAI,主要負責(zé)模型的后訓(xùn)練工作。
而在谷歌發(fā)布Genie 3團隊名單中,也有1名華人參與。

Emma Wang本科畢業(yè)于上海交通大學(xué),在哈佛大學(xué)獲得博士學(xué)位。2019年博士畢業(yè)后加入谷歌,主要負責(zé)模型的優(yōu)化。2023年,她加入了DeepMind團隊,之后參與了Genie 3服務(wù)系統(tǒng)的設(shè)計和優(yōu)化了,降低了10倍的延遲,大大提升了模型的吞吐量,從讓模型而實現(xiàn)了24fps的流暢度和亞秒級響應(yīng)延遲。
