<form id="dlljd"></form>
        <address id="dlljd"><address id="dlljd"><listing id="dlljd"></listing></address></address>

        <em id="dlljd"><form id="dlljd"></form></em>

          <address id="dlljd"></address>
            <noframes id="dlljd">

              聯系我們 - 廣告服務 - 聯系電話:
              您的當前位置: > 企業 > > 正文

              【世界速看料】算力管理復雜、訓練成本過高,專家談AI困境如何破解

              來源:中國新聞網 時間:2024-06-30 10:45:20
              中新網6月29日電(中新財經記者 吳濤)“大模型的高速發展使得AI不得不面臨算力管理復雜、訓練推理成本高、任務調度難等多方面發展瓶頸。”

              發布會現場。供圖

              近日,在螞蟻數科舉行的一場發布會上,中國信息通信研究院云大所副所長栗蔚指出,云原生憑借其高可用、彈性、可擴展等優勢成為突破AI困境的關鍵,云原生PaaS平臺的大模型產品工具鏈不斷完善,將加速大模型技術在行業應用中落地。

              栗蔚表示,根據調研,云原生除了作用于AI之外,之前它作用于很多互聯網應用的研發,超過一半中國企業大部分互聯網化應用程序都是云原生的架構,甚至傳統的核心架構現在也都在云化。

              據介紹,在AI時代,因為大模型對算力需求很大,GPT3.5的時候是1750億參數,需要500個英偉達的卡,到了GPT5是10萬億的參數,需要50萬張英偉達的卡。這種情況下,云將發揮出新的關鍵作用。

              “50萬張英偉達卡計算是不可能在一個數據中心完成的,所以很多大模型計算跨域不可避免,但跨域以后對方是英偉達的卡嗎?或者智算底層基礎設施都不一定。這種情況下,我們需要什么?中間誰能把應用部署在算力上跑起來呢?”

              栗蔚給出答案,她認為,就是云,AI時代幾個發展瓶頸問題基本都是要靠云原生滿足的。云原生屏蔽了底層算力的差異,其應用不在乎你底下是CPU還是GPU,還是用了什么樣的規格的卡,我只是將應用部署在上面,用你的計算能力,所以云原生發揮了這樣的作用。

              “很多企業通過用了云原生,對于底下上千臺服務器進行統一的納管,從而全方位提升效率和降低成本。”栗蔚強調,云跟AI結合才能充分降低AI的工程化成本,讓AI大模型真實地跑起來變成服務。(完)

              責任編輯:

              標簽:

              相關推薦:

              精彩放送:

              新聞聚焦
              Top 中文字幕在线观看亚洲日韩