fss 露出

欧美色图 亚洲色图 对话郑纬民院士:用超行为念AI大模子肃肃,资本只需英伟达1/6

发布日期:2025-01-05 08:11    点击次数:71

欧美色图 亚洲色图 对话郑纬民院士:用超行为念AI大模子肃肃,资本只需英伟达1/6

开首:新浪科技欧美色图 亚洲色图

文 丨 新浪科技 周文猛

在肃肃东说念主工智能大模子的经由中,采购超等蓄意就业或存储器,也正在成为有用缓解算力战栗的新路子。

近日,中国工程院院士、清华大学蓄意机系素质郑纬民在与新浪科技调换中指出,“以前肃肃一个大模子要参预几十亿,但如果把大模子肃肃拿到超算上去作念,价钱只需要用到英伟达的六分之一。”

此外,郑纬民还指出了一种全新的AI推剃头展新趋势——“以存换算”。他以清华大学与AI独角兽企业月之暗面共同开拓的Mooncake时刻框架为例,先容了该时刻基于“以存换算”念念路,匡助月之暗面kimi智能助手缓解算力弥留需求的旨趣,从而幸免就业器宕机。

“把大模子肃肃搬到超算上,价钱只需英伟达1/6”

郑纬民看到,在经过ChatGPT发布后全球各科技企业快速追逐后,本年大模子有两个特质:第一,基础大模子进入多模形容态,不单好文本,还有图像、视频等;第二,简直用起来了,大模子正与各行业本色的投合,比如大模子+金融,大模子+医疗、大模子+汽车、大模子+智能制造等。

“大模子简直在与国民经济GDP、跟东说念主们的生流水平密切投合,我一直合计基础大模子咱们的水平跟好意思国比一经差少量,但‘大模子+’这件事,咱们一经有但愿跨越好意思国的。”郑纬民暗示。

干系词,大模子实在的应用经由中,在波及数据赢得、数据预处理、模子肃肃、模子微调、模子推理等五个智商在内的全人命周期中,却需要大批的算力资源。若缘何更低的资本赢得愈加高效、更高可靠的AI大模子算力资源,成为每家企业王人在念念考的问题。

迫于外洋高端芯片赢得的困难,现在国内为闲静AI大模子肃肃带来的海量算力需求,主要发展出的一种惩办念念路是:通过搭建千卡、万卡集群,通过海量芯片半导体堆叠,采购多家厂商的芯片进行异构卡不竭肃肃,来闲静我方大模子居品肃肃的海量算力需求。但在郑纬民看来,这种面容虽能惩办算力紧缺问题,但也存在一些流弊。

领先,关于构开国产万卡系统,建成天然难堪,但用好却很难。郑纬民以我方作念高性能蓄意的亲自阅历身材力行说念:“建一个2000卡的系统,其中1000块用英伟达芯片,另外1000块用其他厂家的,系统建成也初始起来了,但最终发现这些芯片性能不一,有的技艺小少量,有的技艺大少量,一个任务下来分红2000份,还要给其中1000个芯片分小少量的任务,另外1000个分大少量的任务,这一经静态的,如果是动态的,则径直分红了2000份最小的进行处理,性能很低。”

郑纬民指出,大鸿沟算力集群建造经由中存在木桶效应,有的蓄意卡智力强,有的则弱,就像悉数桶装几许水最终是由短板决定的,板子再长也莫得用。“是以1000个老GPU和1000个新GPU合起来,性能比2000个老GPU性能还低少量,作念大鸿沟算力集群的资本也挺大。”

巨乳 乳首

在郑纬民看来,进行大鸿沟异构卡不竭肃肃,在静态环境下想要赶走最高的性能很难,并不合算,如果再波及他乡卡,就会更难,数据从北京传到贵州,贵州作念出来胁制再送到上海,这中间波及的时分资本极高。“钱少的东说念主不需要作念,钱多的东说念主不错试试。”

郑纬民淡薄企业尝试采纳超算来进行AI大模子肃肃。“我国有14亿超算系统,钱王人是国度付的,有的机器还有少量富饶,因为国内超算机器收费低廉,不像英伟达要把机器资本收纪念还要赢利,是以大师作念大模子肃肃到青岛神威超算上作念,六分之一的价钱就够了。”郑纬民暗示。

“以存换算,概况有用裁汰AI推理资本”

事实上,大模子实在的应用经由中,在波及数据赢得、数据预处理、模子肃肃、模子微调、模子推理等五个智商在内的全人命周期中,需要大批算力资源的同期,也需要有着大批的存储资源,用于存储海量蓄意胁制。尤其在模子推理经由中,怎样存得多、传得快、性价比高,成为悉数行业王人在共同念念考的问题。

此前,郑纬民曾公开说起,“AI存储是东说念主工智能大模子的要津基座,存储系统存在于大模子人命周期的每一环,是大模子的要津基座,通过以存强算、以存换算,先进的AI存储概况培育肃肃集群可费用,裁汰推理资本,培育用户体验。”

在与新浪科技调换中,郑纬民共享了“以存换算”的基首肯趣。他指出,“大模子无论是肃肃一经推理,王人需要很大的算力,同期也需要好多存储,用来存储大模子肃肃出来的海量参数,以及推理经由中产生的一些经由数据。”干系词,如果悉数肃肃或推理经由中需要存储的数据越来越多,这会导致存储器资源紧缺,最终反而又会成为大模子性能培育的“职守”。

据郑纬民先容,为惩办上述问题,清华大学想了两个观点:第一,在推理经由当中,现在主若是推理卡责任,主机CPU跟主机存储器是无谓的,因此,不错想观点把主机上的存储用具到推理经由中,培育了存储器应用率,性能培育的同期,也纯粹了不停购买推理卡的资金资本;第二,将推理经由中产生的共性的、用户共用的内容存储起来,通过存储必要推理经由中产生的数据,当后续碰到相同问题的时候径直调用,径直省去了每次碰到相同问题时推理经由,培育了恶果,同期纯粹了资源。

郑纬民以清华大学与月之暗面共同研发的Mooncake时刻框架为例先容指出,“通过将不同用户与Kimi对话的世界内容索取出来,存储下来,这不仅减少了每次用户发问王人要从头生成的经由欧美色图 亚洲色图,纯粹了许多算力卡,也减少了kimi因考察过大导致的‘考察蔓延’或‘宕机’等问题。”





Powered by fss 露出 @2013-2022 RSS地图 HTML地图

Copyright Powered by365站群 © 2013-2024