亚洲人成网亚洲欧洲无码_无码人妻h动漫中文字幕_人妻影音先锋啪啪av资源_美女航空一级毛片在线播放

在線咨詢
免費報價
免費評估
免費規劃
當前位置:首頁 > 資訊中心 > 物聯網開發

ChatGPT助力英偉達狂飆,GPU需求或將超過供應

來源:博觀科技日期:2022-02-27 15:31:21

 據路透社報道,隨著人工智能熱潮的興起,英偉達有望成為芯片制造商中最大的贏家——盡管不是唯一的贏家。


人工智能已成為科技行業投資的亮點,該行業增長放緩導致大規模裁員和實驗性投資減少。


ChatGPT助力英偉達


 但興趣激增幫助 Nvidia 周三公布了好于預期的季度收益,并預測銷售額高于華爾街預期,這與競爭對手英特爾公司預計虧損和削減股息形成鮮明對比。


 第四季度,英偉達總營收為 60.5 億美元,下降 20.8%,凈收入下降 52.9% 至 11.4 億美元。Nvidia 的現金儲備同比減少 37.3% 至 133 億美元,但實際上比上一季度略有增加。與 2023 財年第三季度相比,收入環比略有增長,凈收入增長了一倍多,因此在許多方面都比上一季度好。但它顯然不如去年同期那么令人印象深刻。


 與 PC 業務緊密相關的圖形業務再次經歷了糟糕的季度,收入下降 46.2% 至 23.8 億美元。但隨著 GPU 卡庫存逐漸減少并基本恢復平衡,以及“Ada”GeForce 40 系列卡開始增加,圖形組有所改善。


 計算和網絡部門公布的銷售額為 36.7 億美元,環比增長 13.9%,全年銷售額略高于 150 億美元,與 2022 財年相比全年增長 36.4%。


GPU市場的王者


 圖形處理單元旨在非常高效地處理人工智能計算中涉及的特定類型的數學,而英特爾的通用中央處理器 (CPU) 可以以較低的效率處理更廣泛的計算任務。但人工智能正在接管科技行業,據研究公司 Gartner 稱,到 2026 年,數據中心使用的 GPU 等專用芯片的份額預計將從 2020 年的不到 3% 上升到 15% 以上。


 AMD是 GPU 行業的第二大玩家,其股價在周三 Nvidia 財報公布后也有所上漲,市場份額約為 20%。


 “在硬件和處理方面引領 AI 革命的兩家公司是 Nvidia 和 AMD,在我們看來,這兩家公司遙遙領先于其他公司,”Piper Sandler 分析師 Harsh Kumar 說。


 Lisa Su 領導的 AMD 近年來在 AI 方面進行了大量投資,包括一系列旨在與 Nvidia 最快的產品競爭的芯片。作為對比,英特爾占有不到 1% 的份額。


 “對 ChatGPT 的熱情及其解鎖的潛在用例可能代表了人工智能采用的轉折點,”持有英偉達 0.54% 股份的 AllianceBernstein 技術基金投資組合經理 Lei Qiu 表示。“雖然很難準確地確定今天人工智能占(Nvidia)收入的百分比有多大,但隨著大型科技公司競相開發類似類型的人工智能應用程序,它有可能呈指數增長,”Qiu 說。


 英偉達在 AI 行業的實力也引起了風險投資家和初創公司的關注,他們正在投資數十億美元,并承諾進行諸如降低電力消耗等改進。但到目前為止,它們都沒有對 Nvidia 的業務造成重大影響。


 所有這一切對英特爾來說都是壞消息,英特爾在數據中心和個人電腦行業的 CPU 市場份額也正在被 AMD 奪走,而 AMD 曾一度占據主導地位。該公司現在面臨失去該行業下一個增長點的風險。近幾個月來,它努力加強對 GPU 的關注,包括在 12 月將其圖形芯片部門一分為二:一個專注于個人電腦,另一個專注于數據中心和人工智能。


不過,分析人士表示,在英特爾在市場上占有一席之地之前,該公司還有很長的路要走。


 Wedbush Securities 分析師 Matthew Bryson 表示:“英特爾有更多的設計試圖滲透(AI)市場,但迄今為止,盡管其解決方案過多,但它的牽引力令人失望。”


ChatGPT 助力英偉達狂飆


 由于 AI 巨頭利用 ChatGPT 和其他 AI 生成工具的需求增加,NVIDIA AI GPU 可能會面臨短缺正如之前報道的,ChatGPT 和其他語言/圖像/視頻生成工具非常依賴 AI 處理能力,這就是 NVIDIA 的主要優勢所在。這就是為什么利用 ChatGPT 的主要技術公司正在使用 NVIDIA 的 GPU 來滿足他們不斷增長的 AI 需求。看起來 NVIDIA 在這個行業的實力可能會導致公司 AI GPU 在未來幾個月短缺。


 據 FierceElectronics 報道,ChatGPT(Open.AI 的 Beta 版本)在 NVIDIA 的 10,000 個 GPU 上進行了訓練,但是自從它引起了公眾關注以來,系統因用戶群體太大而無法滿足需求。因此,公司宣布了一個新的 ChatGPT Plus 訂閱計劃,不僅在高峰期可以提供服務器的一般訪問權限,還可以提供更快的響應時間和對新功能和改進的優先使用權。ChatGPT Plus 訂閱每月 20 美元。


 “未來有可能用其他廠商的 GPU 訓練或運行 ChatGPT 或其他深度學習模型。然而,目前,由于高性能和 CUDA 支持,NVIDIA GPU 在深度學習社區中廣泛使用。CUDA 是由 NVIDIA 開發的并行計算平臺和編程模型,允許在 NVIDIA GPU 上進行高效計算。許多深度學習庫和框架,例如 TensorFlow 和 PyTorch,都內置支持 CUDA,并且針對 NVIDIA GPU 進行了優化。”


 根據福布斯的報告,微軟和谷歌等大型科技巨頭也計劃將類似ChatGPT的語言學習模型(LLM)整合到他們的搜索引擎中。要使谷歌在每次搜索查詢中集成該功能,需要512,820臺A100 HGX服務器,共有4,102,568塊A100 GPU,只是服務器和網絡成本的資本支出就需要100億美元。


 Nvidia 是無可爭議的 AI 芯片市場領導者,在數據中心的單調世界中,ChatGPT 等工具進行計算并輸出結果。據 Omdia 估計,截至 2020 年,它在此類 AI 處理器中的份額約為 80%。


不過,有這么多資金可供爭奪,其他芯片制造商也想加入其中。


 英特爾公司首席執行官帕特基辛格周三表示,他的公司擁有一套廣泛的芯片來應對生成人工智能的機會,包括面向人工智能計算的專業芯片、數據中心的圖形芯片和新一代數據中心中央處理器——計算機的數字大腦——他說這在人工智能工作中表現良好。


“隨著人工智能融入未來的每一個應用程序,我們期望的性能將成為計算的主流,”他說。


 AMD為 AI 量身定制 CPU、圖形芯片和其他硬件,同時押注運行該技術所必需的許多計算的大型云計算公司將大力投資芯片。AMD 首席執行官Lisa Su上個月底表示 ,這項業務明年應該會開始變得更有意義。


 美國銀行分析師 Vivek Arya 表示,到 2027 年,生成式人工智能每年可為整個人工智能芯片市場增加 200 億美元。他說,Nvidia 應該能夠保持至少 65% 的人工智能芯片市場份額。


 互聯網搜索巨頭谷歌是Alphabet Inc.的子公司,本月展示了其稱為 Bard 的ChatGPT 本土競爭對手。中國的百度公司正在開發一種名為 Ernie Bot 的類似于 ChatGPT 的人工智能聊天機器人,它計劃在下個月推出。微軟已經在其 Bing 搜索引擎結果中為用戶提供了有限的 ChatGPT 體驗。


 至少在短期內,Nvidia 在 AI 領域的主導地位可能是它獲利的最佳位置。該公司通過允許軟件開發人員利用其圖形芯片的特性獲得了領先地位,這些芯片從大約 15 年前開始就被證明擅長 AI。瑞銀分析師在一份報告中表示,現在,該公司的芯片是唯一可用于創建大規模 AI 語言系統的可行產品,并補充說,他們估計 ChatGPT 需要大約 10,000 個該公司的圖形芯片來訓練。


 黃仁勛在財報說明會上建議該公司下個月可能會更新其潛在市場規模的前景,大約一年前,黃預測其從提供視頻游戲芯片到汽車的業務將達到 1 萬億美元。


 “由于生成式人工智能令人難以置信的能力和多功能性,以及去年年中和年底發生的所有融合突破,我們可能會遲早達到那個[市場規模],”他說。“毫無疑問,這對計算機行業來說是一個非常重要的時刻。”


 Nvidia 正試圖通過開始為企業提供云計算服務來更快地實現這一目標,以使用其硬件和軟件開發生成式 AI 聊天機器人和其他工具。該服務將通過成熟的云計算公司提供,旨在降低人工智能在商業中的應用普及的門檻。


 Nvidia 表示,它正在與所有主要的云計算提供商(包括亞馬遜、微軟和谷歌)就生成人工智能工具以及消費者互聯網公司和初創公司展開合作。


“云服務”帶來的新可能


 與其他類型的軟件(如網頁服務)相比,它偶爾會以微秒為單位突發性地使用處理能力,而機器學習任務可能會占用整個計算機的處理能力,有時長達數小時或數天。


 這意味著發現自己擁有熱門 AI 產品的公司通常需要購買更多 GPU 來處理高峰期或改進他們的模型。這些 GPU 并不便宜。除了可以插入現有服務器的卡上的單個 A100 之外,許多數據中心還使用一個包含八個 A100 GPU 協同工作的系統。


 這個來自Nvidia的,名為DGX A100的建議售價接近 200,000 美元,但它配備了所需的芯片。周三,Nvidia 表示將直接出售對 DGX 系統的云訪問,這可能會降低修補匠和研究人員的入門成本。


很容易看出 A100 的成本是如何增加的。


 例如,New Street Research 的一項估計發現,Bing 搜索中基于 OpenAI 的 ChatGPT 模型可能需要 8 個 GPU 才能在不到一秒的時間內響應問題。按照這個速度,微軟將需要超過 20,000 臺 8-GPU 服務器才能將 Bing 中的模型部署給每個人,這表明微軟的功能可能需要 40 億美元的基礎設施支出。


 “如果你來自微軟,并且你想擴展它,以 Bing 的規模,那可能是 40 億美元。如果你想擴展到谷歌的規模,每天服務 8 或 90 億次查詢,你實際上需要在 DGX 上花費 800 億美元。” New Street Research 的技術分析師 Antoine Chkaiban 說。“我們得出的數字是巨大的。但它們只是反映了這樣一個事實,即每個使用如此大型語言模型的用戶在使用它時都需要一臺大型超級計算機。”


 根據 Stability AI 在線發布的信息,最新版本的圖像生成器 Stable Diffusion 在256 個 A100 GPU或 32 臺機器上進行了訓練,每臺機器有 8 個 A100,總計 200,000 個計算小時。


 Stability AI 首席執行官莫斯塔克在 Twitter 上表示,以市場價格計算,僅訓練模型就花費了 60 萬美元,他在推特交流中暗示,與競爭對手相比,這個價格異常便宜。這還不包括“推理”或部署模型的成本。


 Nvidia 首席執行官黃仁勛在接受 CNBC 的 Katie Tarasov 采訪時表示,就這些模型所需的計算量而言,該公司的產品實際上并不昂貴。


 “我們將原本價值 10 億美元的運行 CPU 的數據中心縮小為 1 億美元的數據中心,”Huang 說。“現在,1 億美元,當你把它放在云端并由 100 家公司共享時,幾乎什么都不是。”


 Huang 表示,Nvidia 的 GPU 允許初創公司以比使用傳統計算機處理器低得多的成本訓練模型。“現在你可以用大約 10 到 2000 萬美元構建類似大型語言模型的東西,比如 GPT,”Huang 說。“這真的非常實惠。”他補充說。


 也許,在談到這個英偉達“云服務”的時候,很多人會把他看作類似AWS、AZURE和谷歌這樣的公有云競爭者。但按照nextplatform的說法,英偉達只是將其自己的 DGX 系統真正地放入大云中,這樣客戶就可以在云上使用與他們可以安裝在自己的數據中心中的完全相同的服務。


 “這類似于VMware在 2016 年秋季放棄云,與亞馬遜合作構建 VMware Cloud on AWS的嘗試”,nextplatform說。


但無論如何,在其他競爭對手還在掙扎的時候,英偉達似乎已經正式復蘇并邁入了新時代。


鄭州博觀電子科技有限公司是一家提供科技類物聯網開發軟硬件定制化方案服務商、也是中原地區領先的物聯網終端設備解決方案提供商。致力共享換電柜、智能充電樁、共享洗車機、物聯網軟硬件等服務平臺的方案開發與運維。總部位于河南省鄭州市高新區,已取得國家高新技術企業認證證書。經過10多年的業務開拓,公司已經形成了以中原地區為中心、業務遍布全國的經營格局。