鱼鱼雅雅网鱼鱼雅雅网

Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI

9.7分

Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI

Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI下载

大小 133.9 MB

Google 發布最聰明開放模型 Gemma 4!全面改採 Apache 2.0 授權,效能直逼大型閉源 AI介绍

Google 官方宣布,發布放模正式推出新一代開放模型系列 Gemma 4。最聰直逼該模型採用與 Gemini 3 相同的明開技術架構,全面轉向商業友好的型G效 Apache 2.0 授權,並主打強大的全面本地端運行能力。
(前情提要:Google量子電腦傳9分鐘破解比特幣,改採數字怎麼算出來,授權真正威脅在哪裡?大型)
(背景補充:AI 預測天災》Google 推出「Groundsource」框架,用 Gemini 將全球新聞轉化為 260 萬筆救命數據)

本文目錄

Toggle

 

Google 再度為開放原始碼 AI 領域投下震撼彈。明開官方最新宣布推出「Gemma 4」系列,型G效標榜是全面目前旗下最智慧的開放模型。Gemma 4 直接承襲了旗艦模型 Gemini 3 的改採世界級研究技術,帶來突破性的推理能力與代理式(Agentic)工作流程。最受社群矚目的是,Google 這次回應了開發者的呼聲,全面改用商業友好的 Apache 2.0 授權,讓用戶能在任何環境中自由建構與安全部署,完全掌控自身的資料與基礎設施。

四大版本齊發,本地端也能順暢運行

為了滿足不同硬體與應用情境,Gemma 4 共釋出四種不同規模的版本。最輕量的 E2B(2B 參數)專為行動裝置與瀏覽器等邊緣裝置設計;E4B(4B 參數)則在效能與效率間取得平衡,更原生支援視覺與音訊輸入。而在高效能端,26B A4B 採用混合專家(MoE)架構,推論時僅啟動約 4B 參數,讓記憶體需求大幅降低,即使在 24GB 記憶體的 Mac Mini 等消費級硬體上也能流暢運行。最高階的 31B 密集模型則是該系列的效能旗艦。

支援 256K 視窗,原生多模態與函式呼叫

在技術規格方面,Gemma 4 的大型模型版本最高支援高達 256K tokens 的上下文視窗,讓開發者能一次處理整個程式碼庫或龐大的文件資料。除了原生支援文字與圖像處理(E2B 與 E4B 更支援音訊),Gemma 4 還具備強大的原生函式呼叫(Function Calling)能力,能夠穩定輸出結構化 JSON 格式,為建構自主代理應用提供了極佳的基礎。此外,其訓練資料涵蓋了超過 140 種語言,具備高度的全球適用性。

效能直逼龐然大物,社群評價亮眼

Gemma 4 強調極高的「每位元組效能」。根據 AI Arena 等開放模型排行榜的數據,Gemma-4-31B 目前高居開放模型第 3 名,整體表現甚至與體積龐大的 Qwen3.5-397B 相當,但其規模卻僅有後者的十分之一。在研究生級推理基準測試(GPQA Diamond)中,31B 版本更創下 84.3% 的驚人成績。

目前,開發者已可在 Google AI Studio 上直接體驗 Gemma 4,或前往 Hugging Face、Ollama 等平台下載權重模型。社群也迅速跟進,推出針對 GPU 優化的量化版本。不過也有部分開發者指出,在面對真實世界複雜的程式碼除錯環境時,Gemma 4 仍有優化空間。但整體而言,此次開源釋出無疑為推動數位主權與本地端 AI 應用注入了一劑強心針。

加入動區 Telegram 頻道

📍相關報導📍

AI 支付暗戰:Google 帶 60 家盟友,Stripe 自己建了整條路

Google 的 Gemini 3 Deep Think 大升級:推理能力強壓 Opus 4.6、GPT-5.2,要做「最會科研的 AI」

維基百科25週年宣布:賣內容給微軟、Google、Amazon等AI大廠「授權訓練」

Tags: AIGemini 3Gemma 4GoogleLLM人工智慧大型語言模型開放原始碼
分享到: