www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 廠商動態(tài) > NVIDIA
[導(dǎo)讀]與 BigCode 社區(qū)共同創(chuàng)建的 StarCoder2 是在 600 多種編程語言上訓(xùn)練而成,它將推進代碼生成、透明度、治理和創(chuàng)新

美國加利福尼亞州圣克拉拉 - 太平洋時間 2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為一系列用于代碼生成的開放獲取大語言模型(LLM),將為性能、透明度和成本效益樹立新標準。

StarCoder2 的聯(lián)合開發(fā)者 BigCode 社區(qū)是由 ServiceNow 和 Hugging Face 共同管理。前者是一家領(lǐng)先的數(shù)字工作流公司,致力于為每個人創(chuàng)造更好的工作環(huán)境;后者則是最常用的開源平臺,機器學(xué)習(xí)社區(qū)在該平臺上就模型、數(shù)據(jù)集和應(yīng)用程序開展合作。

在 619 種編程語言上訓(xùn)練而成的 StarCoder2,可接受進一步的訓(xùn)練并嵌入到企業(yè)應(yīng)用中,以執(zhí)行應(yīng)用源代碼生成、工作流生成、文本摘要等特定任務(wù)。開發(fā)者可以使用它的代碼補全、高級代碼摘要、代碼片段檢索等功能,加快創(chuàng)新速度及提高工作效率。

StarCoder2 提供三種規(guī)模的模型:由 ServiceNow 訓(xùn)練的 30 億參數(shù)模型、由 Hugging Face 訓(xùn)練的 70 億參數(shù)模型,以及由 NVIDIA 使用 NVIDIA NeMo 構(gòu)建并在 NVIDIA 加速基礎(chǔ)設(shè)施上訓(xùn)練的 150 億參數(shù)模型。規(guī)模較小的模型由于參數(shù)較少,在推理過程中所需的計算量較少,可在提供強大性能的同時節(jié)省計算成本。實際上,新的 30 億參數(shù)模型在性能上與原有的 StarCoder 150 億參數(shù)模型不相上下。

ServiceNow 的 StarCoder2 開發(fā)團隊負責人兼 BigCode 聯(lián)合負責人 Harm de Vries 表示: “StarCoder2 證明了將開放式科學(xué)協(xié)作和負責任的 AI 實踐與道德數(shù)據(jù)供應(yīng)鏈相結(jié)合所產(chǎn)生的力量。這一極其先進的開放獲取模型將提高已有生成式 AI 的性能和開發(fā)者的生產(chǎn)力,為開發(fā)者提供平等的機會,獲得代碼生成式 AI 的優(yōu)勢。這使任何規(guī)模的企業(yè)都能更加輕松地激發(fā)其全部業(yè)務(wù)潛力。”

Hugging Face 機器學(xué)習(xí)工程師兼 BigCode 聯(lián)合負責人 Leandro von Werra 表示: “在 Hugging Face、ServiceNow 和 NVIDIA 的共同努力下,這套功能強大的基礎(chǔ)模型終于問世。在數(shù)據(jù)和訓(xùn)練完全透明的情況下,社區(qū)能夠更加高效地構(gòu)建各種應(yīng)用。StarCoder2 證明了開源和開放式科學(xué)的潛力,我們正在努力實現(xiàn)負責任 AI 的全民化?!?

NVIDIA 應(yīng)用研究副總裁 Jonathan Cohen 表示: “由于每個軟件生態(tài)系統(tǒng)都有專門的編程語言,代碼 LLM 可以推動各行業(yè)效率和創(chuàng)新方面的突破。NVIDIA 與 ServiceNow 和 Hugging Face 的合作帶來了安全且負責任的模型,讓更多人能夠用上負責任的生成式 AI,我們相信這將使全球社區(qū)受益?!?

StarCoder2 模型為自定義應(yīng)用開發(fā)增添強大助力

StarCoder2 模型均使用來自 BigCode 的先進架構(gòu)和精心挑選的數(shù)據(jù)源。為了實現(xiàn)負責任的大規(guī)模創(chuàng)新,數(shù)據(jù)源的透明度和開放治理被放在第一位。

StarCoder2 提升了未來由 AI 驅(qū)動的編碼應(yīng)用的潛力,包括各種文本-代碼和文本-工作流轉(zhuǎn)換功能。通過更加廣泛、深入的編程訓(xùn)練,它可以提供資源庫上下文,從而實現(xiàn)準確的上下文感知預(yù)測。無論是經(jīng)驗豐富的軟件工程師還是業(yè)余開發(fā)者等,都能利用這些進步提升業(yè)務(wù)價值和推動數(shù)字化轉(zhuǎn)型。

StarCoder2 的基礎(chǔ)是一個名為 Stack v2 的新代碼數(shù)據(jù)集,該數(shù)據(jù)集規(guī)模比 Stack v1 大 7 倍多。除了先進的數(shù)據(jù)集之外,新的訓(xùn)練技術(shù)也有助于模型理解低資源編程語言(如 COBOL 等)、數(shù)學(xué)和程序源代碼討論。

使用特定業(yè)務(wù)數(shù)據(jù)對先進功能進行微調(diào)

用戶可以使用 NVIDIA、NeMo 或 Hugging Face TRL 等開源工具,利用特定行業(yè)或組織的數(shù)據(jù),對開放獲取的 StarCoder2 模型進行微調(diào)??梢詣?chuàng)建高級聊天機器人來處理更復(fù)雜的摘要或分類任務(wù)、開發(fā)能夠快速且輕松地完成編程任務(wù)的個性化編碼助手、檢索相關(guān)代碼片段,并實現(xiàn)文本-工作流轉(zhuǎn)換功能。

為創(chuàng)建適合自身業(yè)務(wù)的特定任務(wù)功能,各企業(yè)已經(jīng)開始對 StarCoder 基礎(chǔ)模型進行微調(diào)。

ServiceNow 的文本-代碼 Now LLM 就是在 150 億參數(shù) StarCoder LLM 的專用版本上構(gòu)建而成的,并針對其工作流模式、用例和流程進行了微調(diào)和訓(xùn)練。Hugging Face 也使用該模型創(chuàng)建了自己的 StarChat 助手。

BigCode 促進 AI 領(lǐng)域的開放式科學(xué)協(xié)作

BigCode 是一個由 Hugging Face 和 ServiceNow 領(lǐng)導(dǎo)的開放式科學(xué)協(xié)作社區(qū),致力于負責任的代碼 LLM 開發(fā)。

BigCode 社區(qū)以工作組和特別任務(wù)組的形式積極參與 StarCoder2 項目的技術(shù)工作,分別使用 ServiceNow 的 Fast LLM 框架來訓(xùn)練 30 億參數(shù)模型、使用 Hugging Face 的 nanotron 框架來訓(xùn)練 70 億參數(shù)模型,以及 NVIDIA NeMo 云原生框架和 NVIDIA TensorRT-LLM 軟件來訓(xùn)練和優(yōu)化 150 億參數(shù)模型。

BigCode 的核心宗旨是促進負責任的創(chuàng)新,其開放的治理、透明的供應(yīng)鏈、開源軟件的使用,以及讓開發(fā)者選擇數(shù)據(jù)不用于訓(xùn)練等做法都體現(xiàn)了這一點。StarCoder2 是在獲得 Inria 托管的 Software Heritage 數(shù)字共享許可下,使用負責任的數(shù)據(jù)構(gòu)建而成的。

Software Heritage 總監(jiān) Roberto Di Cosmo 表示: “StarCoder2 是首個使用 Software Heritage 源代碼存檔開發(fā)的代碼生成式 AI 模型,其構(gòu)建方式符合我們負責任地開發(fā)代碼模型的政策。ServiceNow、Hugging Face 和 NVIDIA 的這一合作體現(xiàn)了對道德 AI 開發(fā)的共同承諾,引領(lǐng)技術(shù)朝著更崇高的利益發(fā)展?!?

StarCoder2 與其前代一樣,將在 BigCode Open RAIL-M 許可下免費提供訪問和使用。為進一步促進透明度和協(xié)作,該模型的支持代碼將繼續(xù)保留在 BigCode 項目的 GitHub 頁面上。

所有 StarCoder2 模型還可以在 Hugging Face 上下載。StarCoder2 150 億參數(shù)模型通過 NVIDIA AI Foundation 模型提供,開發(fā)者可以直接在瀏覽器上或通過 API 端點進行試用。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

過去幾年里,AI聊天機器人飛速進化,現(xiàn)在很多人將它當成個人助手、客服代表和治療專家。驅(qū)動聊天機器人運行的是大語言模型(LLM),它以機器學(xué)習(xí)算法作為基礎(chǔ),算法根據(jù)互聯(lián)網(wǎng)海量數(shù)據(jù)而訓(xùn)練。

關(guān)鍵字: 人形機器人 AI 聊天機器人 大語言模型

隨著大語言模型(LLM)技術(shù)的快速迭代,從云端集中式部署到端側(cè)分布式運行的趨勢日益明顯。端側(cè)小型語言模型(SLM)憑借低延遲、高隱私性和離線可用的獨特優(yōu)勢,正在智能設(shè)備、邊緣計算等場景中展現(xiàn)出巨大潛力。

關(guān)鍵字: 開發(fā)板 大語言模型 邊緣計算

北京——2025年8月5日 亞馬遜云科技日前宣布,推出Amazon Nova Act SDK有限預(yù)覽版,可快速幫助客戶將基于瀏覽器的Agent從原型部署至生產(chǎn)環(huán)境。該SDK可與亞馬遜云科技的多項服務(wù)集成,包括用于安全身份...

關(guān)鍵字: 大語言模型 生成式AI 自動化

提供高算力密度的AI加速能力、多芯片擴展支持及3D堆疊內(nèi)存集成能力

關(guān)鍵字: 服務(wù)器 AI 大語言模型

Palmyra X5是專為高效驅(qū)動多步驟agents而開發(fā)的模型,現(xiàn)僅可通過Writer和Amazon Bedrock以完全托管的方式提供。

關(guān)鍵字: 大語言模型 生成式AI

本文探討了利用大語言模型(LLM)進行測試用例智能設(shè)計,實現(xiàn)測試序列自動化生成的方法。通過分析LLM在自然語言處理和代碼生成方面的優(yōu)勢,闡述了其在軟件測試領(lǐng)域的應(yīng)用潛力,并給出了具體的實現(xiàn)代碼示例。

關(guān)鍵字: 大語言模型 測試用例

隨著大語言模型(LLM)在自然語言處理領(lǐng)域的廣泛應(yīng)用,將其部署到端側(cè)設(shè)備(如智能手機、物聯(lián)網(wǎng)設(shè)備等)成為研究熱點。然而,端側(cè)設(shè)備資源受限,如計算能力、內(nèi)存等,使得大語言模型的直接部署面臨巨大挑戰(zhàn)。為了解決這一問題,本文提...

關(guān)鍵字: 大語言模型 端側(cè)部署

隨著芯片設(shè)計復(fù)雜度的指數(shù)級增長,傳統(tǒng)基于手工編寫的RTL(寄存器傳輸級)代碼開發(fā)模式面臨效率瓶頸。大語言模型(LLM)憑借其強大的自然語言理解與代碼生成能力,為RTL代碼自動化生成提供了全新路徑。本文從需求分析、架構(gòu)設(shè)計...

關(guān)鍵字: 大語言模型 RTL代碼

本文聚焦于基于大語言模型的智能助手本地化部署,深入探討如何在保障用戶隱私的同時實現(xiàn)高性能運行。通過分析本地化部署的優(yōu)勢、面臨的技術(shù)挑戰(zhàn),結(jié)合具體案例與代碼示例,闡述實現(xiàn)隱私與性能平衡的方法,為相關(guān)領(lǐng)域的研究與應(yīng)用提供參考...

關(guān)鍵字: 大語言模型 智能助手 本地化部署

助力生成式 AI 初創(chuàng)企業(yè)釋放潛能,加速全球化進程

關(guān)鍵字: 生成式 AI 大模型 加速器
關(guān)閉