這項由Google DeepMind團隊開發(fā)的研究成果發(fā)表于2025年3月12日,詳細介紹了Gemma 3這一全新的多模態(tài)AI模型家族。有興趣深入了解的讀者可以通過arXiv:2503.19786v1訪問完整論文。
當我們談?wù)揂I模型時,通常會面臨一個兩難選擇:要么選擇功能強大但需要巨額資源的大型模型,要么選擇輕便但能力受限的小型模型。就像選擇交通工具一樣,豪華轎車舒適但油耗驚人,經(jīng)濟小車省油但空間局促。然而,Google DeepMind的研究團隊卻找到了一條全新的路徑,他們開發(fā)的Gemma 3模型家族就像一輛精心設(shè)計的混合動力汽車,既保持了出色的性能,又能在普通人的電腦、手機甚至筆記本電腦上流暢運行。
Gemma 3最令人驚喜的地方在于它的多才多藝。這個模型不僅能理解和生成文字,還能"看懂"圖片內(nèi)容,支持多種語言交流,甚至能處理長達128,000個詞匯的超長文檔——這相當于一本中等篇幅小說的容量。更重要的是,研究團隊通過創(chuàng)新的架構(gòu)設(shè)計,解決了長文檔處理時內(nèi)存消耗過大的難題,就像工程師為汽車設(shè)計了更高效的發(fā)動機,既提升了性能又降低了油耗。
這個模型家族包含四個不同規(guī)模的版本,參數(shù)量從10億到270億不等,就像同一品牌推出的不同排量車型,用戶可以根據(jù)自己的需求和設(shè)備條件選擇最合適的版本。最小的1B版本可以在手機上運行,而最大的27B版本則能在高端個人電腦上發(fā)揮出色的性能,這種靈活性在AI領(lǐng)域是相當罕見的。
一、革命性的架構(gòu)創(chuàng)新:讓AI模型更高效地"思考"
傳統(tǒng)的AI模型處理長文檔時就像一個人同時記住所有細節(jié),這種方式雖然全面但極其耗費資源。Gemma 3采用了一種全新的"選擇性關(guān)注"機制,就像一個經(jīng)驗豐富的編輯在審閱長篇文章時的工作方式。編輯不會對每個字都投入同等精力,而是會重點關(guān)注關(guān)鍵段落,同時對整體結(jié)構(gòu)保持把握。
具體來說,Gemma 3的架構(gòu)包含兩種不同類型的"注意力層"——本地注意力層和全局注意力層。本地注意力層專注于處理相鄰的文本片段,就像編輯仔細校對某個段落的語法和用詞;而全局注意力層則負責(zé)理解整篇文檔的宏觀結(jié)構(gòu)和邏輯關(guān)系。研究團隊巧妙地將這兩種層以5:1的比例交替排列,即每5個本地層之后跟隨1個全局層,這種設(shè)計大大減少了內(nèi)存消耗,同時保持了對長文檔的理解能力。
更進一步,本地注意力層只關(guān)注1024個詞匯的窗口范圍,這就像編輯一次只專注于一頁紙的內(nèi)容,而不是試圖同時處理整本書。這種方法將內(nèi)存開銷從傳統(tǒng)模型的60%大幅降低到不足15%,效果顯著。同時,研究團隊還引入了一種叫做"QK-norm"的技術(shù)來替代之前的"軟限制"方法,這個改進就像給汽車換裝了更先進的變速箱,讓整個系統(tǒng)運行得更加平順。
對于長文檔處理,Gemma 3支持高達128K詞匯的上下文長度(1B版本為32K),這相當于能夠一次性理解和分析一本完整的中篇小說。為了實現(xiàn)這個目標,研究團隊采用了位置插值技術(shù),就像為地圖重新調(diào)整比例尺,讓模型能夠準確理解更長文檔中各部分內(nèi)容的相對位置關(guān)系。
二、多模態(tài)能力:讓AI擁有"視覺理解"
Gemma 3最引人注目的新特性就是它的視覺理解能力。研究團隊為模型配備了一個名為SigLIP的視覺編碼器,這個編碼器就像AI的"眼睛",能夠?qū)D片轉(zhuǎn)換成模型可以理解的語言。這個過程有點像翻譯工作——視覺編碼器將圖片"翻譯"成256個特殊的向量,這些向量就像是圖片的"DNA密碼",包含了圖片的所有重要信息。
為了提高處理效率,研究團隊將所有圖片統(tǒng)一調(diào)整到896×896像素的分辨率。然而,現(xiàn)實世界中的圖片往往有著各種各樣的長寬比例,強行調(diào)整可能會導(dǎo)致圖片變形,就像把長方形的照片硬塞進正方形的相框里一樣。為了解決這個問題,研究團隊開發(fā)了一種叫做"Pan & Scan"的智能裁剪技術(shù)。
這種技術(shù)的工作原理就像攝影師拍攝全景照片時的方法:當遇到尺寸不合適的圖片時,系統(tǒng)會自動將其分割成多個不重疊的正方形區(qū)域,每個區(qū)域都調(diào)整到標準尺寸后輸入視覺編碼器。這樣既保持了圖片的原始比例,又確保了重要內(nèi)容不會丟失。更貼心的是,這個功能只在需要時才啟動,如果用戶追求速度而不是精度,完全可以關(guān)閉這個功能。
有趣的是,研究團隊在訓(xùn)練時采用了一種"預(yù)計算"的策略。他們事先將所有訓(xùn)練圖片轉(zhuǎn)換成向量形式并存儲起來,在實際訓(xùn)練語言模型時直接使用這些預(yù)處理好的向量,這樣就不需要每次都重新處理圖片,大大提高了訓(xùn)練效率,就像廚師提前準備好所有食材,烹飪時就能專注于調(diào)味和火候控制。
三、知識蒸餾:讓小模型擁有大模型的智慧
Gemma 3的另一個重要特色是全面采用了"知識蒸餾"技術(shù)。這個過程就像經(jīng)驗豐富的老師傅向年輕學(xué)徒傳授技藝。在這個比喻中,"老師傅"是一個更大更強的AI模型,而"學(xué)徒"就是正在訓(xùn)練的Gemma 3模型。
傳統(tǒng)的模型訓(xùn)練就像學(xué)生自己摸索學(xué)習(xí),雖然最終能掌握知識,但過程漫長且效率不高。知識蒸餾則讓學(xué)生能夠直接從老師那里學(xué)習(xí)解題思路和判斷方法。具體來說,對于訓(xùn)練數(shù)據(jù)中的每個問題,老師模型會給出自己的答案和置信度,學(xué)生模型不僅要學(xué)會給出正確答案,還要學(xué)會模仿老師的思考方式和判斷標準。
在技術(shù)實現(xiàn)上,研究團隊采用了一種精巧的方法:對于每個訓(xùn)練樣本,他們從老師模型的輸出中選擇256個最有可能的答案,并按照老師給出的概率分布進行采樣。學(xué)生模型需要學(xué)習(xí)在這256個選項中做出與老師相似的選擇,而對于沒有被選中的選項,目標概率被設(shè)置為零。這種方法既保留了老師模型的核心知識,又避免了計算負擔過重。
更有趣的是,研究團隊發(fā)現(xiàn)了一個反直覺的現(xiàn)象:對于小模型來說,在訓(xùn)練初期使用相對較小的老師模型效果更好,但隨著訓(xùn)練的深入,使用更大的老師模型會帶來更好的效果。這就像學(xué)習(xí)樂器一樣,初學(xué)者更適合跟著同水平的朋友練習(xí),但想要進一步提高時,就需要更高水平的老師指導(dǎo)。
四、后訓(xùn)練優(yōu)化:讓AI更貼近人類需求
Gemma 3在基礎(chǔ)訓(xùn)練完成后,還需要經(jīng)過一個關(guān)鍵的"后訓(xùn)練"階段,這個過程就像廚師在基本掌握烹飪技巧后,還需要學(xué)習(xí)如何根據(jù)客人的口味偏好來調(diào)整菜品。研究團隊在這個階段特別關(guān)注提升模型在數(shù)學(xué)、推理、對話和多語言能力方面的表現(xiàn)。
在數(shù)學(xué)能力提升方面,研究團隊采用了一種創(chuàng)新的方法,讓模型不僅學(xué)習(xí)正確答案,還學(xué)習(xí)解題過程。這就像教學(xué)生做數(shù)學(xué)題時,不僅要告訴他答案是什么,還要詳細解釋每一步的推理邏輯。為了實現(xiàn)這個目標,他們使用了多種獎勵函數(shù),包括人類反饋、代碼執(zhí)行結(jié)果,以及數(shù)學(xué)問題的標準答案。
對話能力的訓(xùn)練則更加復(fù)雜,需要模型學(xué)會在保持有用性的同時避免產(chǎn)生有害內(nèi)容。研究團隊開發(fā)了一套綜合的評估體系,就像培養(yǎng)一位優(yōu)秀的客服代表,不僅要確保他能準確回答客戶問題,還要保證語氣友善、態(tài)度專業(yè),并且能夠恰當?shù)鼐芙^不合理的要求。
在多語言能力方面,研究團隊特別增加了訓(xùn)練數(shù)據(jù)中各種語言的比例,并采用了一種受啟發(fā)于現(xiàn)有研究的策略來處理語言代表性不平衡的問題。這種方法就像組織一場國際會議,需要確保每種語言的代表都有充分的發(fā)言機會,而不是讓某幾種主要語言占據(jù)所有話語權(quán)。
值得一提的是,研究團隊還引入了一些先進的強化學(xué)習(xí)技術(shù),包括BOND、WARM和WARP等方法。這些技術(shù)的核心思想是通過多個"評委"(獎勵模型)的綜合評價來指導(dǎo)模型的學(xué)習(xí),就像選秀節(jié)目中多位評委共同打分決定選手的表現(xiàn)一樣,這種方式能夠提供更全面、更可靠的反饋。
五、訓(xùn)練基礎(chǔ)設(shè)施:打造AI模型的"制造工廠"
訓(xùn)練Gemma 3這樣的大型AI模型需要巨大的計算資源,研究團隊使用了Google最先進的TPU(張量處理單元)集群。不同規(guī)模的模型需要不同的資源配置:1B版本使用512個TPUv5e芯片,而最大的27B版本則需要6144個TPUv5p芯片。這些數(shù)字聽起來可能很抽象,但可以這樣理解:如果把每個芯片比作一名工人,那么訓(xùn)練最大的模型就需要超過6000名工人同時協(xié)作。
為了讓這些"工人"能夠高效協(xié)作,研究團隊采用了復(fù)雜的并行化策略。他們將訓(xùn)練任務(wù)分解成多個維度:數(shù)據(jù)并行、序列并行和模型副本,就像工廠生產(chǎn)線上的精密分工。每個芯片負責(zé)處理特定的數(shù)據(jù)片段或模型參數(shù),通過高速網(wǎng)絡(luò)進行協(xié)調(diào)和信息交換。
特別值得注意的是,研究團隊采用了ZeRO-3優(yōu)化器狀態(tài)分片技術(shù),這種技術(shù)能夠?qū)⒛P偷膮?shù)和優(yōu)化器狀態(tài)分散存儲在多個設(shè)備上,大大減少了單個設(shè)備的內(nèi)存需求。這就像把一個巨大的圖書館分散建設(shè)在多個地點,每個地點只存儲部分書籍,但通過高效的管理系統(tǒng),讀者仍然能夠快速找到任何需要的資料。
對于多設(shè)備訓(xùn)練,研究團隊使用了Google的Pathways系統(tǒng),這是一個專門為大規(guī)模機器學(xué)習(xí)設(shè)計的基礎(chǔ)設(shè)施。整個系統(tǒng)就像一個超級智能的調(diào)度中心,能夠自動管理數(shù)以千計的計算設(shè)備,確保它們協(xié)調(diào)一致地完成訓(xùn)練任務(wù)。
六、量化優(yōu)化:讓模型更輕便易用
為了讓Gemma 3能夠在更多設(shè)備上運行,研究團隊還開發(fā)了多種量化版本。量化可以理解為一種"壓縮"技術(shù),就像將高清電影壓縮成較小的文件以便在手機上播放。雖然會有一些質(zhì)量損失,但大大提高了便攜性和實用性。
研究團隊提供了三種主要的量化格式:按通道的4位整數(shù)量化、按塊的4位整數(shù)量化,以及切換式8位浮點量化。這些不同的量化方式就像相機的不同拍攝模式,每種都有其特定的適用場景。按通道量化適合需要較高精度的應(yīng)用,按塊量化在精度和效率之間取得平衡,而浮點量化則在特定硬件上能夠獲得最佳性能。
量化訓(xùn)練采用了"量化感知訓(xùn)練"技術(shù),這意味著模型在訓(xùn)練過程中就考慮到了量化可能帶來的影響。這就像演員在排練時就考慮到正式演出時的舞臺限制,這樣能夠確保最終表演的質(zhì)量。研究團隊用5000步的微調(diào)來適應(yīng)量化,使用原始模型的輸出作為目標,確保量化后的模型能夠保持接近原始模型的性能。
量化的效果相當顯著。以27B模型為例,原始版本需要54GB的存儲空間,而4位整數(shù)量化版本只需要14.1GB,壓縮比達到近4倍。在加上KV緩存(用于處理長文檔的臨時存儲)的情況下,內(nèi)存節(jié)省更加明顯,從72.7GB減少到32.8GB。這種優(yōu)化讓原本只能在高端服務(wù)器上運行的模型,現(xiàn)在可以在普通的工作站甚至高配置的個人電腦上流暢運行。
七、對話格式:讓人機交互更自然
Gemma 3采用了一套精心設(shè)計的對話格式,讓人與AI的交互更加自然流暢。這套格式使用了特殊的標記來區(qū)分對話中的不同角色和轉(zhuǎn)換點,就像劇本中用不同的格式來標示不同角色的臺詞。
用戶的話語以"user"開始,AI的回應(yīng)則以"model"開始,每輪對話都以""結(jié)束。這種設(shè)計就像給對話加上了標點符號,讓AI能夠清楚地理解對話的結(jié)構(gòu)和流程。比如,當用戶問"你是誰?"時,完整的格式會是:用戶標記開始,問題內(nèi)容,用戶標記結(jié)束,然后是模型標記開始,AI的回答,模型標記結(jié)束。
這種格式設(shè)計還考慮到了不同版本模型的區(qū)別。預(yù)訓(xùn)練版本在生成結(jié)束時會輸出一個通用的結(jié)束標記,而指令調(diào)優(yōu)版本則會輸出專門的對話結(jié)束標記。這就像不同類型的信件有不同的結(jié)尾格式,商務(wù)信件和私人信件的結(jié)尾方式是不同的。
重要的是,所有模型都需要在文本開頭添加一個特殊的開始標記[BOS],這個標記需要在分詞后手動添加,不能簡單地將文本"[BOS]"直接包含在輸入中。這個細節(jié)對于正確使用模型至關(guān)重要,就像使用某些電子設(shè)備時必須按照特定的開機順序一樣。
八、評估與性能:全方位的能力展示
Gemma 3的性能評估可以說是全方位的,涵蓋了從基礎(chǔ)語言理解到復(fù)雜推理的各個方面。在LMSYS Chatbot Arena這個被譽為AI模型"奧運會"的平臺上,Gemma 3 27B版本獲得了1338分的ELO評分,位列第9名,超過了許多參數(shù)量更大的開源模型。
這個排名的意義重大,因為Chatbot Arena采用的是盲測評估,人類評委在不知道模型身份的情況下對不同模型的回答進行評分。這就像蒙眼品酒大賽,完全憑借實際表現(xiàn)而不是品牌聲譽來判斷優(yōu)劣。Gemma 3能夠擊敗參數(shù)量達到405B的LLaMA 3和72B的Qwen2.5,充分說明了其架構(gòu)設(shè)計和訓(xùn)練方法的先進性。
在標準化測試中,Gemma 3同樣表現(xiàn)出色。在MMLU-Pro這個高難度的多學(xué)科理解測試中,27B版本達到了67.5分,而在數(shù)學(xué)推理測試MATH中更是達到了89.0分,接近90分的高分。這些成績不僅展現(xiàn)了模型的知識儲備,更重要的是證明了它具備了出色的邏輯推理能力。
特別值得注意的是Gemma 3在多語言能力方面的表現(xiàn)。在全球多語言理解測試中,27B版本達到了75.1分,這意味著它不僅能夠理解英文,還能夠處理包括中文、日文、阿拉伯文等在內(nèi)的多種語言。這種多語言能力對于全球化的應(yīng)用場景具有重要意義。
在視覺理解方面,Gemma 3同樣表現(xiàn)不俗。在MMMU這個多學(xué)科多模態(tài)理解測試中,27B版本達到了64.9分,在文檔理解任務(wù)DocVQA中更是達到了85.6分。這些結(jié)果表明,模型不僅能夠"看懂"圖片,還能夠理解圖片與文本之間的復(fù)雜關(guān)系。
九、記憶化與隱私保護:負責(zé)任的AI開發(fā)
在AI模型開發(fā)中,記憶化問題一直是一個重要關(guān)切。記憶化指的是模型可能會"記住"訓(xùn)練數(shù)據(jù)中的特定內(nèi)容,并在生成時重現(xiàn)這些內(nèi)容,這可能涉及版權(quán)和隱私問題。研究團隊對Gemma 3進行了全面的記憶化評估,結(jié)果令人鼓舞。
評估采用了一種叫做"可發(fā)現(xiàn)提取"的方法,就像給模型出填空題,看它是否會填入訓(xùn)練數(shù)據(jù)中的原始內(nèi)容。研究團隊給模型提供50個詞的開頭,讓它生成后續(xù)的50個詞,然后檢查生成的內(nèi)容是否與訓(xùn)練數(shù)據(jù)中的原始文本匹配。
結(jié)果顯示,Gemma 3的記憶化率相比之前的模型有了顯著降低。更重要的是,研究團隊使用Google Cloud的敏感數(shù)據(jù)保護服務(wù)對所有被標記為"記憶化"的輸出進行了隱私信息檢測,結(jié)果發(fā)現(xiàn)沒有任何個人信息泄露。這就像對所有可疑的輸出內(nèi)容進行了"安全檢查",確保沒有敏感信息被意外泄露。
這種低記憶化率的實現(xiàn)得益于多種因素:首先是改進的數(shù)據(jù)過濾技術(shù),在訓(xùn)練前就移除了可能包含敏感信息的內(nèi)容;其次是去重處理,避免同一內(nèi)容在訓(xùn)練數(shù)據(jù)中重復(fù)出現(xiàn);最后是質(zhì)量重加權(quán)策略,降低低質(zhì)量數(shù)據(jù)在訓(xùn)練中的權(quán)重。
十、安全性與責(zé)任:構(gòu)建可信賴的AI系統(tǒng)
Google DeepMind在開發(fā)Gemma 3時始終將安全性和社會責(zé)任放在首位。他們制定了一套全面的安全政策,涵蓋了從兒童保護到仇恨言論防范的各個方面。這些政策就像為AI制定的"行為準則",確保模型不會生成有害內(nèi)容。
安全政策包括六個主要方面:禁止兒童性虐待和剝削內(nèi)容、防止泄露可能導(dǎo)致傷害的個人身份信息、杜絕仇恨言論和騷擾、避免危險或惡意內(nèi)容、拒絕生成明確的性內(nèi)容,以及不提供與科學(xué)或醫(yī)學(xué)共識相悖的醫(yī)療建議。這些規(guī)則的制定考慮了AI技術(shù)可能被濫用的各種場景。
為了確保模型遵守這些安全政策,研究團隊采用了多層次的安全措施。在數(shù)據(jù)準備階段,他們對訓(xùn)練數(shù)據(jù)進行了嚴格的過濾,移除了可能包含有害內(nèi)容的樣本。在模型訓(xùn)練階段,他們使用了監(jiān)督微調(diào)和人類反饋強化學(xué)習(xí)來引導(dǎo)模型生成符合安全要求的內(nèi)容。
研究團隊還進行了專門的危險能力評估??紤]到Gemma 3在STEM相關(guān)任務(wù)上的出色表現(xiàn),他們特別關(guān)注了模型在化學(xué)、生物、放射性和核武器相關(guān)知識方面的表現(xiàn)。評估結(jié)果顯示,模型在這些敏感領(lǐng)域的知識水平相對較低,不足以構(gòu)成實際威脅。
值得注意的是,研究團隊采用了一種漸進式的安全評估策略。他們認為,對一個更強大模型的全面評估往往能夠為能力較弱的模型提供足夠的安全保障。因此,他們將深入的危險能力評估重點放在了特定的高風(fēng)險模型上,而對于Gemma 3這樣的模型則采用了針對性的精簡評估。
十一、實際應(yīng)用與未來展望:AI技術(shù)的民主化
Gemma 3的發(fā)布標志著AI技術(shù)民主化的重要一步。這個模型家族的最大特色就是能夠在普通硬件上運行,這意味著更多的開發(fā)者、研究者甚至普通用戶都能夠接觸和使用先進的AI技術(shù)。就像個人電腦的普及讓計算能力不再是大公司的專利一樣,Gemma 3讓強大的AI能力變得更加觸手可及。
在實際應(yīng)用方面,Gemma 3展現(xiàn)出了廣泛的適用性。在教育領(lǐng)域,它可以作為智能輔導(dǎo)助手,不僅能夠回答學(xué)生的問題,還能夠"看懂"教材圖片和圖表,提供更加直觀的解釋。在商業(yè)應(yīng)用中,它可以用于客戶服務(wù)、文檔分析、多語言翻譯等場景。對于內(nèi)容創(chuàng)作者來說,它能夠理解圖片內(nèi)容并生成相應(yīng)的文字描述,大大提高工作效率。
更有意思的是,研究團隊基于Gemma 3還開發(fā)了ShieldGemma 2,這是一個專門用于圖像安全分類的模型。它能夠自動識別圖片中的危險內(nèi)容、性暗示內(nèi)容和暴力內(nèi)容,為內(nèi)容平臺提供了實用的安全檢測工具。這展示了Gemma 3架構(gòu)的靈活性和擴展性。
從技術(shù)發(fā)展的角度來看,Gemma 3代表了一種新的設(shè)計理念:不是一味追求模型規(guī)模的增大,而是通過巧妙的架構(gòu)設(shè)計和訓(xùn)練策略來提升效率和性能。這種理念可能會影響未來AI模型的發(fā)展方向,促使更多研究者關(guān)注模型的實用性和可訪問性,而不僅僅是絕對的性能指標。
說到底,Gemma 3的意義遠超一個單純的技術(shù)突破。它代表了AI技術(shù)發(fā)展的一個重要轉(zhuǎn)折點,從"更大更強"轉(zhuǎn)向"更巧更用"。就像汽車工業(yè)從追求更大的發(fā)動機轉(zhuǎn)向追求更高的燃油效率一樣,AI領(lǐng)域也在經(jīng)歷類似的轉(zhuǎn)變。這種轉(zhuǎn)變不僅讓AI技術(shù)變得更加實用,也為更多人參與AI創(chuàng)新提供了可能。
對于普通用戶來說,Gemma 3的出現(xiàn)意味著他們現(xiàn)在可以在自己的設(shè)備上體驗到接近專業(yè)級的AI服務(wù)。無論是寫作助手、圖片理解,還是多語言交流,這些曾經(jīng)需要強大服務(wù)器支持的功能現(xiàn)在都可以在本地運行。這不僅提高了響應(yīng)速度,也保護了用戶的隱私,因為數(shù)據(jù)不需要上傳到云端處理。
展望未來,Gemma 3的成功可能會催生更多類似的"高效型"AI模型。我們可以期待看到更多針對特定應(yīng)用場景優(yōu)化的模型,它們不一定是最大的,但肯定是最適合特定任務(wù)的。這種多樣化的發(fā)展趨勢將使AI技術(shù)更加貼近實際需求,真正實現(xiàn)"讓AI為每個人服務(wù)"的愿景。
Q&A
Q1:Gemma 3相比之前的AI模型有什么突破性改進? A:Gemma 3最大的突破是實現(xiàn)了"小體積大能力"的平衡。它不僅能處理文字,還能理解圖片,支持多種語言,處理長達128K詞匯的文檔,但卻能在普通電腦甚至手機上運行。這主要得益于創(chuàng)新的5:1本地/全局注意力架構(gòu)設(shè)計,將內(nèi)存消耗從60%降到15%,同時保持了優(yōu)秀的性能表現(xiàn)。
Q2:普通人能使用Gemma 3嗎?需要什么配置要求? A:完全可以!Gemma 3提供四個版本(1B到27B參數(shù)),其中1B版本可以在手機上運行,4B版本適合普通筆記本電腦,27B版本需要較好的個人電腦。Google已將其開源,開發(fā)者和研究者可以免費下載使用。不同版本還提供了量化壓縮版本,進一步降低了硬件要求。
Q3:Gemma 3的安全性如何保障?會不會泄露隱私信息? A:Google DeepMind在安全性方面投入了大量精力。他們制定了六大安全政策,禁止生成有害內(nèi)容,并通過多層過濾和強化學(xué)習(xí)確保模型遵守規(guī)則。在隱私保護方面,測試顯示Gemma 3的記憶化率相比之前模型顯著降低,且所有輸出都經(jīng)過敏感信息檢測,確保不會泄露個人隱私信息。
