Perplexity 公開一款名為「R1 1776」的 AI 模型
美國企業 Perplexity 於 2025 年 2 月 19 日宣布開源名為「R1 1776」的 AI 模型。此模型基於先前的 DeepSeek-R1 大型語言模型(LLM),經過特別的後續訓練,旨在提供準確、中立且無偏見的回答,擺脫原始版本中因中國政府審查而導致的限制。 開發背景 DeepSeek-R1 雖然在性能上接近最先進的推理模型,如 o1 和 o3-mini,但在處理敏感話題時受到嚴格限制。例如,當被問及「台灣獨立對 Nvidia 股價的影響」時,原版 R1 可能會以中共官方立場回應,甚至完全忽略問題本身。這樣的審查嚴重限制了 R1 的應用範圍,無法提供客觀、完整的資訊。為了打造一個能夠誠實回答所有問題的 AI,Perplexity 決定對 R1 進行後續訓練,讓其擺脫這些限制,成為真正開放、無偏見的 AI。 去除審查的訓練方法 為了讓 R1 具備回答敏感問題的能力,Perplexity 採用了精密的後續訓練技術,主要包含以下步驟: 構建審查資料集:Perplexity 聘請專家辨識了 300 個已知被中國政府審查的話題,並開發了一個多語言審查分類器來篩選相關查詢。這些數據經過嚴格過濾,確保不包含個人資訊,最終累積了 40,000 筆多語言數據作為訓練資料。 蒐集高品質回答:為了確保 AI 能夠提供準確、合邏輯的回答,Perplexity 特別強調「思維鏈」推理能力,並採用了多種方式來確保回答的多樣性和品質,包括使用人工標註、驗證數據可靠性等方法。 以 NeMo 2.0 進行後訓練:模型訓練使用了 Nvidia 的 NeMo 2.0 框架,並設計了特殊的調校方式,確保在去除審查的同時,不影響模型的數學與推理能力。 評估與成果 為了確保 R1 1776 真正去除了審查,Perplexity 建立了一個包含 1,000 多條問題的測試集,涵蓋各種敏感話題,並使用人工標註與 LLM 評審來檢測模型是否仍會「閃躲」或給出過於保守的回答。結果顯示,R1 1776 成功克服審查問題,同時保持與原版 R1 相當的數學與推理能力。 命名意涵 「R1 1776」中的「1776」象徵美國獨立年份,代表著該模型擺脫審查、追求自由與開放的精神。 開源與使用 目前,Perplexity 已將 R1 1776 的訓練後模型權重上傳至 HuggingFace 平台,供開發者和研究人員...