首页 > 业界 > 关键词  > FP8最新资讯  > 正文

用FP8训练大模型有多香?微软:比BF16快64%,省42%内存

2023-11-02 14:13 · 稿源: 机器之心公众号

低精度训练是大模型训练中扩展模型大小,节约训练成本的最关键技术之一。相比于当前的16位和32位浮点混合精度训练,使用 FP88位浮点混合精度训练能带来2倍的速度提升,节省50% -75% 的显存和50% -75% 的通信成本,而且英伟达最新一代卡皇 H100自带良好的 FP8硬件支持。但目前业界大

......

本文由站长之家合作伙伴自媒体作者“机器之心公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天