DeepSeek | 您所在的位置:網(wǎng)站首頁 › 1950年屬虎人的壽命 › DeepSeek |
DeepSeek-R1 發(fā)布,性能對(duì)標(biāo) OpenAI o1 正式版
今天,我們正式發(fā)布 DeepSeek-R1,并同步開源模型權(quán)重。 DeepSeek-R1 遵循 MIT License,允許用戶通過蒸餾技術(shù)借助 R1 訓(xùn)練其他模型。 DeepSeek-R1 上線 API,對(duì)用戶開放思維鏈輸出,通過設(shè)置 model='deepseek-reasoner' 即可調(diào)用。 DeepSeek 官網(wǎng)與 App 即日起同步更新上線。 性能對(duì)齊 OpenAI-o1 正式版?DeepSeek-R1 在后訓(xùn)練階段大規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅有極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力。在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,性能比肩 OpenAI o1 正式版。 ![]() 在此,我們將 DeepSeek-R1 訓(xùn)練技術(shù)全部公開,以期促進(jìn)技術(shù)社區(qū)的充分交流與創(chuàng)新協(xié)作。 論文鏈接: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf 蒸餾小模型超越 OpenAI o1-mini?我們?cè)陂_源 DeepSeek-R1-Zero 和 DeepSeek-R1 兩個(gè) 660B 模型的同時(shí),通過 DeepSeek-R1 的輸出,蒸餾了 6 個(gè)小模型開源給社區(qū),其中 32B 和 70B 模型在多項(xiàng)能力上實(shí)現(xiàn)了對(duì)標(biāo) OpenAI o1-mini 的效果。 ![]() HuggingFace 鏈接: https://huggingface.co/deepseek-ai ![]() 為了推動(dòng)和鼓勵(lì)開源社區(qū)以及行業(yè)生態(tài)的發(fā)展,在發(fā)布并開源 R1 的同時(shí),我們同步在協(xié)議授權(quán)層面也進(jìn)行了如下調(diào)整: 模型開源 License 統(tǒng)一使用 MIT。我們?cè)槍?duì)大模型開源的特點(diǎn),參考當(dāng)前行業(yè)的通行實(shí)踐,特別引入 DeepSeek License 為開源社區(qū)提供授權(quán),但實(shí)踐表明非標(biāo)準(zhǔn)的開源 License 可能反而增加了開發(fā)者的理解成本。為此,此次我們的開源倉庫(包括模型權(quán)重)統(tǒng)一采用標(biāo)準(zhǔn)化、寬松的 MIT License,完全開源,不限制商用,無需申請(qǐng)。 產(chǎn)品協(xié)議明確可“模型蒸餾”。為了進(jìn)一步促進(jìn)技術(shù)的開源和共享,我們決定支持用戶進(jìn)行“模型蒸餾”。我們已更新線上產(chǎn)品的用戶協(xié)議,明確允許用戶利用模型輸出、通過模型蒸餾等方式訓(xùn)練其他模型。 App與網(wǎng)頁端?登錄DeepSeek官網(wǎng)或 |
CopyRight 2018-2019 實(shí)驗(yàn)室設(shè)備網(wǎng) 版權(quán)所有 |