Anthropic 提出了一個新的 透明度框架,旨在解決在前沿 AI 模型開發(fā)過程中日益增長的問責(zé)需求。這一提議的重點(diǎn)針對正在開發(fā)強(qiáng)大 AI 模型的大型人工智能公司,這些公司是以計算能力、成本、評估性能和年度研發(fā)支出等因素來區(qū)分的。目標(biāo)是建立一套標(biāo)準(zhǔn),以確保安全,降低風(fēng)險,并提高公眾對這些先進(jìn) AI 系統(tǒng)的開發(fā)和部署的可見度。
框架的一個核心方面是實(shí)施安全開發(fā)框架(Secure Development Frameworks,SDFs),這將要求大型 AI 公司評估和減輕與其模型相關(guān)的潛在災(zāi)難性風(fēng)險。這些風(fēng)險包括化學(xué)的、生物的及放射性的危害,以及由模型自主性錯位造成的傷害。該提案概述了這些框架不僅應(yīng)解決風(fēng)險緩解問題,還應(yīng)確保負(fù)責(zé)任地處理 AI 開發(fā)流程。
該框架的一個關(guān)鍵要求是公開披露。根據(jù)提議的法規(guī),AI 公司將被要求通過注冊網(wǎng)站公開其 SDFs,提供對其安全實(shí)踐的透明度。這將允許研究人員、政府和公眾獲取有關(guān)部署模型的重要信息,確保安全標(biāo)準(zhǔn)得到滿足,并妥善管理任何風(fēng)險。此外,公司還需要發(fā)布 系統(tǒng)卡片,提供模型測試程序、評估結(jié)果和實(shí)施的緩解措施的摘要。每當(dāng)模型被修訂或添加新功能時,這些文件都需要更新。
該框架還建議小型開發(fā)人員和初創(chuàng)公司不受這些要求的限制。相反,這些法規(guī)將適用于有潛力造成重大傷害的大規(guī)模 AI 公司,例如那些擁有大量計算能力或財務(wù)資源的公司?;砻庵荚诒苊饨o小型公司帶來不當(dāng)負(fù)擔(dān),同時仍將監(jiān)管工作集中在該領(lǐng)域最大的參與者身上。
此外,提議包括執(zhí)行合規(guī)的具體條款。如果 AI 公司就其遵守框架的情況提供虛假或誤導(dǎo)性陳述,將構(gòu)成違法行為,確保必要時可以應(yīng)用舉報人保護(hù)。執(zhí)法機(jī)制將允許司法部長對違規(guī)行為追究民事處罰,幫助維護(hù)系統(tǒng)的完整性。
社區(qū)的反應(yīng)反映了對最近全球關(guān)于 AI 監(jiān)管討論的樂觀、懷疑和實(shí)際關(guān)切的擔(dān)憂。
AI 專家 Himanshu Kumar 在 X 上發(fā)表評論:
促進(jìn)開源 AI 開發(fā)對安全創(chuàng)新不也是至關(guān)重要的嗎?
與此同時,用戶 Skeptical Observer 也發(fā)表了評論:
由誰來執(zhí)行?這感覺非常以美國為中心。中國的實(shí)驗(yàn)室或其他范圍之外的呢?舉報人保護(hù)聽起來不錯,但沒有全球覆蓋,這只是權(quán)宜之計。希望他們在 AI 安全峰會上澄清這一點(diǎn)!
最終,提議的透明度框架旨在在確保 AI 安全 和促進(jìn)持續(xù)創(chuàng)新之間取得平衡。雖然框架為透明度設(shè)定了最低標(biāo)準(zhǔn),但它故意避免過于規(guī)范,允許 AI 行業(yè)隨著技術(shù)的發(fā)展而不斷適應(yīng)。通過促進(jìn)透明度,該框架尋求為 AI 開發(fā)人員建立清晰的問責(zé)制,幫助政策制定者和公眾區(qū)分該領(lǐng)域負(fù)責(zé)任的和不負(fù)責(zé)任的做法。這可以作為進(jìn)一步監(jiān)管的基礎(chǔ),如果需要的話,提供必要的證據(jù)和見解,以確定隨著人工智能模型的發(fā)展是否需要額外的監(jiān)督。
https://www.infoq.com/news/2025/07/anthropic-transparency-framework/
聲明:本文為 InfoQ 翻譯,未經(jīng)許可禁止轉(zhuǎn)載。