
智東西2月16日報導,剛剛,Qwen3.5正式發佈並開源,在多模態理解、複雜推理、編程、Agent智能體等幾大能力上領先同級開源模型,多項基準測試成績媲美甚至超越GPT-5.2、Gemini 3 Pro等閉源第一梯隊模型。

Qwen3.5-Plus總參數為3970億,激活參數僅170億,其性能超越了萬億參數的Qwen3-Max模型。在部署上,其顯存佔用降低了60%,推理效率大幅提升,最大吞吐量可提升至19倍。
Qwen3.5上線後,我們測試了一道考驗大模型邏輯的“腦筋急轉彎”:“我要去洗車,洗車的地方離家就100米,我是開車去呢,還是走着去呢?”這道題曾難倒眾多國內外大模型。而Qwen3.5不僅準確識別出題目中的邏輯陷阱,還用幽默輕鬆的語氣給出了正確答案,並附上了“開車慢行,確保安全”的溫馨提示。

回顧其思考過程,Qwen3.5遵循着分析需求、識別核心陷阱、制定答案、起草答案、內部比較、最終打磨、思考其他可能、確定答案等一系列步驟,過程中甚至會像真人一樣“鼓勵自己”,堅定回答。

在價格方面,Qwen3.5-Plus的API定價為每百萬Token最低0.8元。在同等性能下,這個價格僅為Gemini-3-pro的1/18。
從Qwen2.5、Qwen3到Qwen3.5,千問系列在過去兩年裏持續迭代開源,每一代產品、每一個尺寸都在為行業樹立新的標杆,“最強開源=千問”幾乎成為共識。但這一次,Qwen3.5的意義不止於“又刷新了一次榜單”。
01. 讓草圖“一鍵變”網頁,千問進化成原生多模態大模型
在解讀Qwen3.5背後的技術之前,我們先來看看它在實際應用場景下的表現。我們對模型的多模態理解、推理以及代碼生成能力進行了搶先體驗。
我們上傳了一張禮品購買App的前端頁面手繪草圖,要求Qwen3.5根據草圖生成紅白配色的簡約風前端頁面,並輸出可直接使用的HTML代碼。

幾乎沒有思考時間,Qwen3.5首先識別出了草圖中的基本框架和文字信息。在“紅白配色”的模糊指令下,它自主選擇了飽和度較低的紅色。生成的代碼簡潔可用,頁面也與草圖高度一致。一個值得注意的細節是,我們上傳的草圖是英文,而Qwen3.5根據上下文問答和提問語言,判斷用戶應為中文使用者,自動將頁面語言調整為了中文。

在複雜場景與OCR能力方面,我們隨手拍攝了一張包含多個物體和背景的照片,詢問Qwen3.5:“今天的天氣怎麼樣?這張圖片中都有什麼?”

模型在理解畫面的同時,能夠準確提取模糊的文字信息。這張圖片處於背光環境,陰影中的文字有些模糊不清,但Qwen3.5準確地識別出了圖片中的布洛芬顆粒沖劑、保濕霜以及酸奶的品牌,並貼心地附上了功效說明。結合圖片中晴朗的窗外天氣,Qwen3.5綜合判斷用戶正在家休息養生,並給出了“希望天氣好心情也好,早日恢復活力!”的祝福。

最後,我們測試了Qwen3.5的藝術理解能力。我們向模型展示了西班牙畫家薩爾瓦多·達利的《記憶的永恆》,看它能否識別出這幅畫的風格派別和背景。

Qwen3.5提取出了畫作中的標誌性元素“融化的時鐘”,準確回答出作者是薩爾瓦多·達利,並提供了該畫家的生平信息,以及這幅畫的畫面材質、創作時間、尺寸、收藏地等詳細信息。此外,模型還詳細介紹了畫作的主要元素、象徵意義及其藝術地位,顯示出對美學和抽象概念的較強理解力。

Qwen3.5還可以與OpenClaw集成,驅動編程任務。通過將OpenClaw作為第三方智能體環境集成,Qwen3.5能夠進行網頁搜索、信息收集和結構化報告生成——它結合自身的推理與工具調用能力,以及OpenClaw的接口,為用戶帶來流暢的編碼和研究體驗。
此外,Qwen3.5能夠作為視覺智能體,自主操作手機與電腦完成日常任務。在移動端,該模型已適配更多主流應用,支持自然語言指令驅動操作;在PC端,Qwen3.5能處理跨應用的數據整理、多步驟流程自動化等複雜任務,有效減少重複性人工干預,提升工作效率。
以Qwen3.5為底層模型,Qwen Code支持“vibe coding”,可將自然語言指令轉化為代碼、實時迭代開發項目,並支持如生成視頻等富有創意的任務。
整體體驗下來,Qwen3.5在多模態能力方面表現突出。這背後是千問團隊對模型底層架構的重構,標誌着千問正式從“語言模型”進化為“原生多模態大模型”。
02. 原生全模態,讓模型像人一樣學習
業界普遍認為,統一多模態是通往通用人工智能的必經之路。但讓大模型真正“張開眼睛”,在統一架構下同時提升語言和視覺能力,實現多模態信息的高效融合與協同生成,並非易事。
當前行業中不少看似“多模態”的方案,本質上仍是“拼裝”——先訓練好語言模型“學說話”,再外掛視覺或音頻模塊,模塊之間依靠適配層勉強對齊。有的產品甚至只是在統一入口背後,通過工程路由將不同任務分發給不同模型。這些方案都未實現真正的多模態融合,且不少視覺理解模型會隨着視覺能力的增強,出現語言能力“降智”的問題。
Qwen3.5從一開始就選擇了一條鮮有人踏足的路。 從預訓練的第一天起,該模型就在海量的文本和視覺混合數據上進行聯合學習,就像人類一樣,調用多種感官綜合接收外界信息。這使得視覺與語言在統一的參數空間內深度融合,模型看到一張圖就能自然理解其語義,讀到一段文字便能在腦中構建對應畫面。沒有“中間商賺差價”,沒有信息折損,真正具備了像人一樣的跨模態直覺理解力。
要讓這種原生融合高效運行,就需要一個“人類大腦”般的架構,模型的訓練策略也必須隨之改變。在這一點上,行業的傳統做法是讓視覺和語言使用同一套並行策略,導致效率損耗嚴重。Qwen3.5的做法是讓不同模態走各自的最優路徑,再在關鍵節點上高效匯合。這樣做的結果是,即使同時輸入文本、圖像、視頻三種數據,訓練速度也幾乎不受影響,與僅訓練純文本時相當。
同時,Qwen3.5通過定製化的FP8/FP32精度策略,使激活內存佔用降低約50%,訓練速度提升10%。該策略已在強化學習訓練與推理全流程統一應用,有效降低了多模態模型規模化部署的成本與複雜度。在智能體訓練上,千問團隊還搭建了一套大規模強化學習框架,支持文本、多模態與多輪對話等場景,訓練效率提升了3至5倍。
原生多模態融合帶來的能力不止於圖像理解。Qwen3.5可對圖像進行像素級空間定位與代碼級精細處理,能理解2小時長視頻的時序與邏輯關係,可將手繪草圖轉為可運行的前端代碼,還能作為視覺智能體自主操作設備、跨應用完成複雜任務。
03. 四大核心突破,助力模型“以小勝大”
過去兩年,大模型行業普遍遵循“堆參數、拼算力”的路徑,模型規模從千億級攀升至萬億級。雖然性能有所提升,但成本也隨之急劇增加。這類模型不僅需要專屬集羣進行部署,推理過程也消耗大量算力,使得中小企業和終端設備難以負擔。技術指標不斷刷新,但離普惠、實用的目標卻似乎越來越遠。
Qwen3.5採取了不同的思路:核心目標不是追求更大,而是追求更聰明,旨在以相對更小的模型規模獲得更強的智能水平。這一成果由四項核心技術突破共同支撐:
1. 混合注意力機制
傳統大模型在處理長文本時,需要對每個token與全部上下文進行全量注意力計算,導致算力開銷隨文本長度急劇增加,成為限制長上下文能力的關鍵瓶頸。Qwen3.5採用的混合注意力機制,能夠根據信息的重要性動態分配注意力資源,實現主次分明,在提升計算效率的同時保證了處理精度。
2. 極致稀疏MoE架構
傳統稠密模型在每次推理時都需要調動全部參數參與運算,模型規模越大,算力成本越高。Qwen3.5的MoE架構核心在於:無需同時激活所有參數,而是根據輸入內容,按需激活與之最相關的“專家”網絡。這種架構使得Qwen3.5在擁有3970億總參數的情況下,每次推理僅需激活170億參數,相當於僅用不到5%的算力即可調用全部知識儲備。
3. 原生多Token預測
千問團隊在模型訓練階段就引入了對後續多個位置的聯合預測能力,這使得推理速度接近翻倍。在長文本生成、代碼補全、多輪對話等高頻率場景中,模型的響應速度得以顯著提升。
4. 系統級訓練穩定性優化
2025年,千問團隊一篇關於注意力門控機制的論文獲得了NeurIPS 2025最佳論文獎。 
該研究在注意力層的輸出端引入了一個“智能開關”,類似於一個水龍頭,能夠智能調控信息“流量”。這既防止了有效信息被淹沒,也避免了無效信息被過度放大,從而提升了模型的輸出精度和長上下文泛化能力。類似的深層優化還包括歸一化策略和專家路由初始化等,它們各自解決了訓練不同環節的穩定性問題,共同確保上述架構創新能夠在大規模訓練中穩定、高效地實現。
在上述技術的共同作用下,Qwen3.5的新架構實現了顯著突破:在總參數不足4000億的情況下,其性能超越了上一代超萬億參數模型,同時部署顯存佔用降低了60%,推理效率大幅提升。此外,其API定價僅為Gemini-3-Pro的約1/18。當行業仍在比拼“誰的跑分更高”時,Qwen3.5已將競爭引向一個新的維度:誰的模型更好用、更實用、更多人用得起。
04. 結語:在“好用、實用、用得起”上一馬當先
一馬當先,不僅意味着速度,更意味着方向的正確與前景的深遠。在多模態能力上,Qwen3.5再次驗證了原生多模態路徑的有效性——從預訓練伊始就讓模型像人類一樣,用統一的認知框架理解圖文交織的世界。在效率與性能的平衡上,Qwen3.5將思考重點放在了“如何讓大模型更高效”以及“如何才能讓大模型好用、實用、用得起”上。
從識別到理解,從單模態到跨模態推理,Qwen3.5推動大模型從對話工具向理解真實世界的基礎能力演進。阿里一方面持續推出達到SOTA水平的模型,另一方面通過開源策略使其能夠被廣泛免費使用,從而為更廣泛的創新孕育了土壤。
關注“鯨棲”小程序,掌握最新AI資訊
⚠️ หมายเหตุ: เนื้อหาได้รับการแปลโดย AI และตรวจสอบโดยมนุษย์ หากมีข้อผิดพลาดโปรดแจ้ง
本文来自网络搜集,不代表คลื่นสร้างอนาคต立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/th/archives/22917
