首页 > 业界 > 关键词  > 正文

中国工程院院士高文:没有大算力做大模型就是天方夜谭

2023-07-07 20:57 · 稿源: 凤凰网科技

凤凰网科技讯 7月7日消息,中国工程院院士、鹏城实验室主任高文在世界人工智能大会昇腾人工智能产业高峰论坛上演讲时表示,没有大算力做大模型就是天方夜谭,这就和电力是一样的,可以省点电做出什么产品来,别人真正懂行的人听了都不信的, 一定要有算力作为基础。

“美国的算力现在指数是排第一,比我们大概多了 30%的算力,那么也就代表 GDP 也比我们多 30%,什么时候我们的算力超过了美国,咱们的 GDP 就可以超过美国了。”

他表示,从现在开始,算力也是数字经济发展的一个指数,算力够,你的数字经济就能够发展好,不够就发展不好。

以下为高文演讲全文:

各位专家、各位领导,大家下午好!

前面的领导都讲得很好,算力是非常重要的一件事,今天上午陈书记在讲的时候也讲到,上要抓三件大事,人工智能方面其中就有一个是算力建设,算力建设非常重要的一方面,就像电力一样,我们知道原来李克强**抓经济的时候, 李克强经济中有一个很重要的指数就是“克强指数”,是靠电力的消耗看整个经济的发展顺利不顺利,或者是正常不正常。

从现在开始,算力也是数字经济发展的一个指数,你算力够,你的数字经济就能够发展好,不够就发展不好。所以, 特别是智能算力就非常关键。

所以跟大家分享关于鹏城云脑的智算平台,再就是分享一下在这个平台上面做的鹏城脑海大模型。

首先,我们说算力很重要,重要到什么程度呢?

清华大学的一个 2022 年的咨询报告说到了,经过统计计算力指数和 GDP 是正相关的关系,你算力越强你的 GDP 就越强,最右边的图可以看到,美国的算力现在指数是排第一,比我们大概多了 30%的算力,那么也就代表 GDP 也比我们多 30%,什么时候我们的算力超过了美国,咱们的 GDP 就可以超过美国了。

正是因为算力这么重要,所以发展人工智能和经济没有算力不可能,要有算力要有芯片,芯片做成机器,用这个机器训练这个模型,为了做这件事,我们在 2020 年深圳就做了一台机器,这台 机器叫鹏城云脑II,这台机器的算力在 2020 年的时候是全世界做人工智能训练最强的一台机器,比当时微软、谷歌的机器都要强,相当于是 4000 块卡的机器, 而且这台机器是 4000 块 A100 卡的机器,这台机器是用全光网络把它连起来的, 节点和节点之间的延迟非常低。

因为,有了这台机器可以做很多事,包括我们可以做科学研究,可以做产业应用还有关键技术的研发。

这台机器刚刚我说有 4000 块卡,一个是鲲鹏 CPU, 一个是昇腾 NPU,都是华为的。

有了这台机器以后,那么这台机器的性能行不行呢?就参加世界 TOP500 的超算的打榜,整个超算整个算力的打榜,同时它也有其他的赛道,我们参加的一 个是 IO500 的赛道,你的输出和输入能力的赛道,我们从 2020 年 10 月份这台机 器做出来以后,11 月份就参加打榜,连续 6 次第一,每半年有一次打榜,全节点 连续二次第一

所以,这台机器在做人工智能训练这件事,别人没办法和它比。 这台机器的 AI 算力,这个是三年一次的,也参加了打榜,连续三次第一。这台 机器不仅硬件强,接口能力和网络非常强,同时上面的软件也是配备得比较完备, 包括怎么样做分布式计算,怎么样做命令调优、自研的调度规划等等。这台机器 这么大规模的机器以前还是第一次,相当于它的四台机器,其实是四台我们的机 器组成这一台了,上面有很多软件的挑战。

可能有的专家也许听到过,有人说全世界能在 1000 块卡上同时选连一个模型的只有几千人,能在 4000 块卡上训练的不超过 100 个人,在 10000 块卡上训练模型的人数更少了,大规模的卡上一起做事,对于软件规划、资源调度挑战非 常大。

我们不仅仅是把鹏城云脑II用好,我们也承担了国家发改委的任务,用鹏城云脑II类似的华为生态的,用在昇腾 AI 集群,不管是 100P 和 900P 的算力结点, 我们用网络把资源连起来,可以给大家提供,告诉你这里有资源可以通过网络去 用。

同时,我们还把华为生态以外的,按照发改委的要求,希望这是异构的算力网的平台,我们也选择了部分其他厂商的算力,在 2022 年 6 月这个项目验收的 时候,已经聚合的智能算力到了 2300P,云脑II只是 1000P,这个系统已经聚集 了 2300P 的智能算力。

我们有了云脑II可以训练大模型了,训练大模型还是很费算力的,但是即使你可以训练大模型,现在的需求根本不够用,我们正在规划做云脑III。

下面我说说大模型,鹏城正在做一个大模型,这个大末是 2000 亿参数,也就是 200B 的参数,为什么做这件事呢?

不用再花时间了,因为有 Chat GPT 和类 Chat GPT 大模型在不停地涌现,同时因为现在很多公司都用这个东西做产业应用,去做服务。所以,现在这个模型变得很重要了,但是现在有钱的公司可以砸几个亿做这样的机器,甚至十几个亿和几十个亿,但是大多数的公司做不了。

这个领域需求这么大,怎么办呢?

我们鹏城实验室可以做一个底座,模型训练完开放出去,大家在这个底座说做垂直应用。按照这样的思路,我们首先有鹏城云脑II的算力,前一阶段我们积累了很多的数据,这一段时间前几个月我们通 过各个渠道,包括购买拿到数据,先下面做清晰,清晰的数据很重,可能我拿到 了 100 个数据,清晰完就剩几个了,因为有很多是重复和不规范的,这些东西拿 掉就变得很小。虽然拿了很多的数据,但是真正用来做训练的数据只有 1%-5%。 有了这个数据我们就可以做大模型底座。

这个大模型底座,我们就是用的生成式预训练模型,就是和 GPT 完全类似的底层的东西,用这个东西训练一个好的模型,希望可以开放出去。

现在这个模型我们想着 2000 亿参数,200B 的参数,这个训出来以后,我们希望把它给到合作伙伴那里,而且提供相应的指令微调和相应的人工增强学习的工具,甚至做一两个垂直领域,做样板作为垂直应用,怎么样用告诉大家,因为 华为在这方面很有经验,我们建议谁想做垂直应用,可以到华为得到一些咨询用 这个模型做他们的应用。

有了这个东西,我们希望能够快速把这个模型做完可以推向社会,让社会在 这个模型上开发中国自己的人工智能大模型应用系统。现在我们正在紧锣密鼓往前推,应该是 8 月底第一次所有的训练就训练完了,9 月份就会把模型开放出去。

现在训练的数据有多大呢?我们说的是喂数据,每天喂 10 个 B,但是最重要喂 一个 T 的数据,一个 T 是由几百个 T 清晰来的,现在数据都是中文和代码数据, 现在 4000 多块卡的机器每天可以吃掉 10 个 B,100 天就能吃掉 1000 个 B,就是 一个 T,我训练 2000 亿参数的模型,需要 4000 块卡训练 100 天。

这就是算力, 你如果不够大的话,做一个模型还是很辛苦的,而且我现在才训练了一个 T 的数 据,训练两到三个 T 的话,还要加两到三个 100 天,没有大算力做大模型就是天方夜谭,当然有很多人说我可以用限速(音)等等这样那样的,但是实际上这就和电力是一样的,可以省点电做出什么产品来,别人真正懂行的人听了都不信的, 一定要有算力作为基础。

我们的算力到现在为止,怎么样把数据做好训练得快,我们有一套体系,有 一个开源社区叫启智开源社区,这里面有很多的工程师做飞轮数据工程,可以使 你清晰数据做得非常快,有很多自动和半自动的清晰数据,都可以帮助你。

模型训练,4000 块卡吃掉 10 个 B 的数据,整个的损失每天都在降一点,我 们看着特别高兴,每天有数据汇报,一天降了 0.2,我们现在大概在 2 的上下浮动,我们希望最终可以降到 1.8 左右。

这是训练的过程,同时我们要考虑应用的 时候有隐私数据有一些数据应用者,希望到你这个模型应用一下,但是不希望自 己的数据被丢掉或者是看到,我们提供了隐私数据保护的模块,我们叫防损包, 有了这样一套体系就可以支持应用了。

我们希望鹏城脑海出来了可以快速向社会赋能,可以让大家做数字政府、“一 带一路”、智能制造、智慧金融、智慧医疗等等各种各样可能的应用,这里有黄颜色和白颜色,黄颜色是现在已经投进人去做了,你做指令微调和正向学习都需 要。后面是放给合作伙伴去做的,而且我们还有一些完整的整个教育计划、人才 计划,人才计划就希望这个模型训练放出来,大量培养人才,通过高校和合作伙伴培养,能让中国的大模型应用快速启动。

小结一下,鹏城实验室在鹏城云脑II硬件平台和鹏城脑海大模型这两件事都 在和华为合作正在往前推进,希望可以对中国人工智能大模型用贡献一点力量,作为一个基石,希望大家多关心、多参与。

谢谢大家。

举报

  • 相关推荐
  • OpenAI科学家盛赞中国大模型:算法非常强,算力用到极致!

    OpenAI创始团队成员、高级研究科学家AndrejKarpathy很罕见地,分享了一个来自中国的开源大模型——DeepSeek-v3。Karpathy表示,DeepSeek仅用了280万小时的GPU算力,就训练出了比Llama-3405B更强的前沿模型,整体成本节省了11倍左右,将算力发挥到了极致。值得一提的是可以使用像o1模型那样的深度思考模式,并且会把整个推理过程全部写出来。

  • 寒武纪:深挖生成式大模型算力 打造智能芯片新引擎

    算力设施,作为新型基础设施的关键构成,对推动各行业数字化转型、助力科技创新以及实现社会高效治理,均具有举足轻重的意义。中国互联网协会理事长尚冰透露,2024 年,我国完成备案并上线服务的生成式人工智能大模型接近 200 个,注册用户突破 6 亿。同时,生成式人工智能领域专利申请量超过 3.8 万件,位居世界第 一。随着大模型的迅猛发展,算力基础设施建设的步�

  • 突破算力限制!Meta开源“记忆层”,重塑Transformer架构大模型

    今天凌晨3点,全球社交巨头Meta分享了一个创新研究——Memorylayers。Transformer架构的预训练大模型在存储、查询数据时,随着参数的变大对算力的需求呈指数级增长。这样的设计既简化了维护流程,又提高了系统的灵活性和适应性。

  • 大模型不再有信仰

    AI大模型的“AGI信仰”可能正处在崩溃边缘,与曾经的“区块链信仰”殊途同归。只是当初那一大批“区块链信仰者”,虽然绝大多数是韭菜,但也有一小批“塔尖”人士赚的盆满钵满;如今的AI大模型初创公司,抛开“AGI信仰”,恐怕连能活多久都不知道。2025年各大模型公司应该会更加务实是那句话,只有活得下去才有实现目标的可能,“信仰”不再重要。

  • 我们正在大模型产品面前“裸奔”么

    全球有数亿人在向AI产品倾诉他们的想法、困惑、创意,甚至秘密。但鲜有人意识到,这些对话正在以“帮助训练下一代AI模型的”的名义,突破着过往移动互联网产品的数据使用界限。看起来现在是时候有更多更直接和更严肃的讨论了。

  • 大模型,在内卷中寻找出口

    2024年,大模型进展不断。从年初的Sora到最新的o3,更新更好的模型不断被推出,“内卷”到底有没有发生?我们要先确定“内卷”的定义,指某一类产业模式,发展到一种确定形式后,陷入“高水平均衡陷阱”,出现“没有发展的增长”,这种局面一直无法被打破,那就会走向停滞和危机。大模型要取得商业成功,前提是用户和开发者的业务能否成功,这是为什么完善的商业基

  • 讯飞星火大模型升级发布会:语音同传大模型开启AI翻译新纪元

    讯飞星火大模型升级发布会:语音同传大模型开启AI翻译新纪元 1 月 15 日,讯飞星火大模型升级发布会拉开帷幕。作为人工智能国家队,科大讯飞重磅发布了星火语音同传大模型等一系列重大技术成果,不仅彰显了讯飞在人工智能语音领域深厚的技术积淀,也预示着AI翻译技术正迈向全新的纪元。星火语音同传大模型通过先进的端到端语音同传技术,其优势为翻译字幕呈现更快

  • 大模型落地战,挺进大消费

    便利店市场在中国以及全球范围内迅速崛起,成为消费领域的重要增长点。据中国连锁经营协会联合毕马威发布的《2024年中国便利店发展报告》显示,中国便利店2023年全年销售额达到4248亿元,同比增速达10.8%。拉近企业与上下游及终端消费者距离,构建产业生态,精准洞察消费需求,驱动行业数字化转型。

  • 国产之光DeepSeek把AI大佬全炸出来了!671B大模型训练只需此前算力1/10,细节全公开

    DeepSeek新版模型正式发布,技术大佬们都转疯了!延续便宜大碗特点的基础之上,DeepSeekV3发布即完全开源,直接用了53页论文把训练细节和盘托出的那种。QLoRA一作的一个词评价就是:优雅。当然最后也确实帮上忙了贾扬清也再次感叹:最最后,除了本次官方公布的测试结果,Imsys匿名竞技场也出来提前预热了。

  • 大模型六小虎,要撞上版权墙了

    “几乎没有一家大模型公司的AI视频生成训练,会找视频网站授权。”2025年伊始,在视频生成领域立志“追平Sora”的大模型公司,撞上了版权墙。可以肯定的是,2025年想要继续留在牌桌上的大模型创企们,在模型训练过程中为版权付费只是第一步,降本不是长久之计,想法子赚钱增效,才是关键。

热文