DeepSeek | 您所在的位置:網(wǎng)站首頁 › 屬馬與屬兔的合不合財 › DeepSeek |
DeepSeek-R1 發(fā)布,性能對標 OpenAI o1 正式版
今天,我們正式發(fā)布 DeepSeek-R1,并同步開源模型權(quán)重。 DeepSeek-R1 遵循 MIT License,允許用戶通過蒸餾技術(shù)借助 R1 訓練其他模型。 DeepSeek-R1 上線 API,對用戶開放思維鏈輸出,通過設(shè)置 model='deepseek-reasoner' 即可調(diào)用。 DeepSeek 官網(wǎng)與 App 即日起同步更新上線。 性能對齊 OpenAI-o1 正式版?DeepSeek-R1 在后訓練階段大規(guī)模使用了強化學習技術(shù),在僅有極少標注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學、代碼、自然語言推理等任務(wù)上,性能比肩 OpenAI o1 正式版。 ![]() 在此,我們將 DeepSeek-R1 訓練技術(shù)全部公開,以期促進技術(shù)社區(qū)的充分交流與創(chuàng)新協(xié)作。 論文鏈接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 蒸餾小模型超越 OpenAI o1-mini?我們在開源 DeepSeek-R1-Zero 和 DeepSeek-R1 兩個 660B 模型的同時,通過 DeepSeek-R1 的輸出,蒸餾了 6 個小模型開源給社區(qū),其中 32B 和 70B 模型在多項能力上實現(xiàn)了對標 OpenAI o1-mini 的效果。 ![]() HuggingFace 鏈接: https://huggingface.co/deepseek-ai ![]() 為了推動和鼓勵開源社區(qū)以及行業(yè)生態(tài)的發(fā)展,在發(fā)布并開源 R1 的同時,我們同步在協(xié)議授權(quán)層面也進行了如下調(diào)整: 模型開源 License 統(tǒng)一使用 MIT。我們曾針對大模型開源的特點,參考當前行業(yè)的通行實踐,特別引入 DeepSeek License 為開源社區(qū)提供授權(quán),但實踐表明非標準的開源 License 可能反而增加了開發(fā)者的理解成本。為此,此次我們的開源倉庫(包括模型權(quán)重)統(tǒng)一采用標準化、寬松的 MIT License,完全開源,不限制商用,無需申請。 產(chǎn)品協(xié)議明確可“模型蒸餾”。為了進一步促進技術(shù)的開源和共享,我們決定支持用戶進行“模型蒸餾”。我們已更新線上產(chǎn)品的用戶協(xié)議,明確允許用戶利用模型輸出、通過模型蒸餾等方式訓練其他模型。 App與網(wǎng)頁端?登錄DeepSeek官網(wǎng)或 |
今日新聞 |
推薦新聞 |
專題文章 |
CopyRight 2018-2019 實驗室設(shè)備網(wǎng) 版權(quán)所有 |