首页 > 关键词 > HBM最新资讯
HBM

HBM

三星电子于周二宣布研发出一款全新高带宽内存芯片,被誉为行业内“容量最大”产品。这款名为HBM3E12H的芯片据称“性能和容量均提升超过50%”。”最后,三星电子强调该内存芯片的未来发展前景,并计划于2024年上半年开始量产。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“HBM”的相关热搜词:

相关“HBM” 的资讯61249篇

  • 三星发布全新内存芯片HBM3E12H,AI性能再创新高

    三星电子于周二宣布研发出一款全新高带宽内存芯片,被誉为行业内“容量最大”产品。这款名为HBM3E12H的芯片据称“性能和容量均提升超过50%”。”最后,三星电子强调该内存芯片的未来发展前景,并计划于2024年上半年开始量产。

  • 台积电和SK海力士联手联合生产HBM4:对抗三星

    HBM4内存带来的升级之一,就是采用了2048位接口,从实现更高的带宽,这也是HBM4内存最大的变化,不过唯一的问题就是成本较高,与消费者无缘,但也可以说是HPC、AI领域的专属。据韩国《每日经济新闻》报道,台积电和SK海力士已成立所谓的AI半导体联盟。HBM类产品前后经过了HBM、HBM2、HBM2E、HBM3、HBM3E的开发,其中HBM3E是HBM3的扩展版本HBM4将是第六代产品。

  • NVIDIA斥巨资 向SK海力士、美光预购大量HBM3E内存

    韩国ChosunBiz近日报道,NVIDIA已经向SK海力士、镁光,交付了700亿至1万亿韩元的预付款,业内预计了这笔款项在10.8亿美元到15.4亿美元之间。虽然没有说明具体用途,但业界普遍认为,NVIDIA是为了确保2024年HBM供应稳定,避免新一代AI、HPCGPU因为发布后库存不足掉链子。毕竟在NVIDIA在AI、HPC领域遥遥领先,这也是为什么需要大量HBM内存,来确保H200GPU、以及GH200超级芯片的产品供应。

  • 调协大模型时代存算矛盾的HBM,如何入局其中寻找机会?

    HBM的热度不可谓不高,无论是相关半导体大厂“激进”扩产的计划是产品供不应求的消息,都将这个内存领域的“新”技术,推到了资本市场与相关投资者的眼前。在相关大厂的扩产方面,两大存储芯片巨头持续加码:三星、SK海力士拟将HBM产量提高至2.5倍的消息曝出,使得HBM概念股倍受市场关注。参考资料:1.《HBM很贵,但你必须买!》,芯长征科技;2.《GDDR6vsDDR4vsHBM2?为什么CPU还�

  • 亚马逊的 Trainium2 AI 芯片配备 96GB HBM,训练性能提高四倍

    本周,亚马逊网络服务推出了其新的人工智能加速器芯片Trainium2,相比其前身,它显著提升了性能,使AWS能够训练具有高达数万亿参数的基础模型和大型语言模型。AWS还为自己设定了一个宏伟目标,即使其客户能够为他们的工作负载访问高达65AIExaFLOPS的性能。我们与AWS的合作将帮助各种规模的组织解锁新的可能性,因为它们使用Anthropic的最先进AI系统与AWS的安全可靠云技术结合。

  • 第五代HBM3e内存来了!三大存储巨头集体向英伟达供货:2024年第一季度完成验证

    据TrendForce集邦咨询最新HBM市场研究显示,为了更妥善且健全的供应链管理,英伟达也规划加入更多的HBM供应商。三星的HBM3预期于今年12月在NVIDIA完成验证。在HBM4中,将首次看到最底层的Logicdie将首次采用采用12nm制程晶圆,该部分将由晶圆代工厂提供,使得单颗HBM产品需要晶圆代工厂与存储器厂合作。

  • 三星电子确认第五代 HBM3E 产品命名为「Shinebolt」:为下一代 AI GPU 铺平道路

    HBM3e在行业中的意义是巨大的,因为它将为下一代AIGPU铺平道路这对于实现高计算性能至关重要。据BusinessKorea报道,三星电子已确认将其第五代HBM3E产品命名为「Shinebolt」。我们将进一步扩大生产以为客户提供定制HBM。

  • 英伟达 Blackwell B100 GPU 或将采用 SK 海力士 HBM3e DRAM:因人工智能需求快速增长提前到 2024 年第二季度推出

    由于人工智能需求的大幅增加,英伟达计划将其下一代BlackwellB100GPU的发布日期从2024年第四季度提前到2024年第二季度。该公司预计将使用SK海力士的HBM3eDRAM来驱动其最新的芯片。这表明英伟达正在加快其AIGPU的步伐,希望在未来几年继续保持领先地位。

  • 三星计划 2025 年推出第六代高性能 HBM4 DRAM:争夺快速增长的 AI 芯片领域的主导地位

    三星电子周三发布的初步财报显示,第三季度营业利润同比下降77.9%,原因是全球芯片供应持续过剩的影响导致其芯片业务出现亏损。该公司将于本月晚些时候发布第三季度正式财报。「我们开创了AI内存芯片市场,大规模生产了第二到第四代HBM产品。

  • 24GB HBM3E内存明年初交付:NVIDIA疯狂堆料282GB!

    将在明年初大批量出货交付HBM3E高带宽内存,首要客户就是NVIDIA。NVIDIAA100/H100计算卡热卖,对于HBM的需求也空前高涨,动辄单卡几十GB,最近宣布的GraceHopper超级芯片,双路系统就需要282GBHBM3E。美光还将在明年初出货32GBDDR5颗粒,可以轻松做成单条桌面32GB、服务器128GB,甚至能达成单条1TB。

  • SK 海力士和三星对 HBM 领先地位的竞争随着人工智能的蓬勃发展而升级

    在第二季度,长期处于落后地位的SK海力士凭借高价值和高性能的内存HBM产品销售火爆,使其与全球内存领导者三星电子的市场份额差距缩小至6.3个百分点,自2009年以来最小的差距。根据全球科技产业跟踪机构Omdia周日公布的数据,SK海力士在4月至6月期间DRAM销售额达34亿美元,比上季度飙升49%。该DDR5具有比以前型号高10%的高电能效率。

  • 温度直降100多度 HBM内存也要用上低温焊了:产能大增

    随着AI市场的爆发,不仅CPU、GPU算力被带动了,HBM内存也成为香饽饽有2.5D、3D封装技术,但是它们的产能之前很受限制,除了成本高,焊接工艺复杂也是问题。芯片焊接目前主要采用高温焊,焊料主要是SAC锡、银、铜材质,熔点超过250℃,这个温度的焊接技术对大部分芯片来说没问题,但HBM内存使用了TSV硅通孔技术,这样的高温焊接就有可能导致变形。三星、SK海力士等公司正在扩大HBM内存的生产,这种低温焊技术很快也会得到大面积使用。

  • 英伟达为 GH200 超级芯片带来 HBM3e 解决生成式人工智能瓶颈

    不到一年时间,生成式人工智能已经成为企业计算的主导影响力,因此处理器创新也需要快速推进。英伟达在宣布其新的GH200超级芯片不到三个月后,已经对GH200进行了「提升」。新版本与5月份在Computex上发布的NVIDIAMGX服务器规范完全兼容,这意味着制造商可以轻松地将其添加到许多不同的服务器版本中。

  • 三星电子仍保持第一季度存储芯片市场领先地位 押注 HBM 人工智能芯片

    根据一份报告,尽管芯片供应过剩,三星电子在一季度仍然保持全球内存芯片市场的领先地位SK海力士公司从去年的第二名下降到第三名,主要是因为它在三星之前削减产量。三星电子在DRAM市场占有42.8%的份额,与上一季度持平。HBM芯片适用于高性能计算系统,如人工智能驱动的数据分析和先进的图形系统。

  • TrendForce:新型 AI 加速芯片助力 HBM3 和 HBM3e 主导 2024 年市场

    2023年HBM市场的主导产品是HBM2e,该产品由英伟达A100/A800、AMDMI200以及大多数云服务提供商的自主开发的加速器芯片所采用。随着对AI加速器芯片需求的不断发展,制造商计划在2024年推出新的HBM3e产品,预计HBM3和HBM3e将成为明年市场的主流。

  • 三星电子将为英伟达最新的人工智能芯片 H100 提供 HBM3 和封装服务

    据韩国经济日报消息,存储芯片制造商三星电子将为英伟达公司提供高性能半导体和封装服务,有望在其它大型科技公司中赢得订单。根据周二首尔的行业消息,三星和英伟达正在对 HBM3 芯片进行技术验证和封装服务。一旦完成工作,预计三星将负责封装 H100,英伟达最新的人工智能 GPU,同时为处理器供应 HBM3 芯片。

  • ChatGPT火爆 韩国厂商天降喜事:HBM内存价格涨了5倍

    作为当前最火的AI应用,ChatGPT已经成为各大科技巨头必争之地,陆续都会推出类似的产品这也带火了硬件行业,受益最大的是GPU显卡,但HBM内存吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GBHBM2内存。三星近年来也加大了HBM内存的投入跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。

  • ChatGPT大火为三星和SK海力士带来新契机 年初以来HBM订单大增

    OpenAI开发的人工智能聊天机器人ChatGPT近一段时间大火,在业内高度关注的同时,围绕ChatGPT相关的消息也大量出现,关注的范围也越来越广,除了ChatGPT本身在持续关注相关的受益行业及厂商,英伟达就被认为会是一大受益者,为满足当前服务器的需求,OpenAI已使用了约2.5万个英伟达的GPU,需求增加后还将进一步增加。从外媒最新的报道来看,除了英伟达,三星电子和SK海力士这两大存储芯片制造商,也是ChatGPT大火的受益者,自年初以来他们获得了大量的新存储订单。同常用的DRAM相比,HBM性能出色,但价格也更高,至少是DRAM的3倍,这也导致应用比常用的DRAM少在相关厂商要求供货的情况下,需求也在增加,价格也有提升,有业内人士透露,HBM3的价格,已增至高性能DRAM的5倍。

  • 80GB都不够了!NVIDIA H100计算卡要上120GB HBM2e显存

    根据最新曝料,NVIDIA正在准备120GBHBM2e显存版的H100计算卡,PCIe形态,显存带宽还是高达3TB/s...GH100核心采用台积电4nm工艺制造,集成800亿个晶体管,核心面积814平方毫米,内部集成了多达18432个CUDA核心、576个Tensor核心、60MB二级缓存,分为144个SM单元,另有12个512-bit显存控制器,总位宽6144-bit......

  • 传英伟达正在开发120GB HBM2e显存的Hopper H100 PCIe加速卡

    近日有消息称,英伟达正在开发一款 Hopper H100 PCIe 加速卡,特点是具有高达 120GB 的 HBM2e 显存...每组 SM 单元最多由 128 个 FP32 单元,那样满血版应该是 18432 个 CUDA 核心...● 每组 SM 单元拥有 128 个 FP32 CUDA 核心,每颗 GPU 拥有 18432 个 FP32 CUDA 核心...● 每组 SM 单元拥有 128 个 FP32 CUDA 核心,每颗 GPU 拥有 16896 个 FP32 CUDA 核心......

  • 英特尔Sapphire Rapids-SP跑分流出 HBM2E缓存难敌AMD EPYC Milan-X

    @结城安穗-YuuKi_AnS 刚刚分享了英特尔至强(Xeon)可扩展 Sapphire Rapids 处理器的一组跑分数据。尴尬的是,即使封装了 HBM2E 高带宽缓存的高端 HPC 型号,都未能将 AMD 当前一代 Zen 3 霄龙(EPYC)Milan-X 竞品扫落马下。作为参考,测试对比的 64C / 128T 的 Milan-X 服务器 CPU,也带有堆叠的 3D V-Cache 缓存。本次泄露的跑分,涉及两款工程样品 —— 分别是 52C / 104T 的至强铂金 8472C,以及 60C / 120T 的 8490H 。除了最简单的 CPU-Z 单 / 多核跑分,@结城安穗-YuuKi_AnS 还分享了阔内核扩展的 V-ray 基准测试项目。然后 Toms

  • SK海力士宣布向英伟达提供业内首批HBM3 DRAM

    SK 海力士刚刚宣布,其已开始量产业内性能领先的 HBM3 DRAM 存储器...以英伟达为例,这家 GPU 巨头于近期完成了对 SK 海力士 HBM3 样品的性能评估,预计相关产品可于今年 3 季度开始出货...为满足客户需求,SK 海力士将遵循英伟达的新品发布时间表...规格方面,SK 海力士的 HBM3 有望大幅提升加速计算应用的性能表现 —— 可提供高达 819 GB/s 的缓存带宽,相当于每秒传输 163 部 @ 5GB 的全高清(FHD)电影......

  • SK海力士在GTC 2022大会上介绍HBM3动态随机存储器

    TechPowerUp 报道称:在 3 月 21 - 24 日举办的英伟达 GPU 技术大会上,SK 海力士介绍了该公司最新研发的 HBM3 高带宽显存...在“完全堆叠”状态下,HBM3 高带宽显存可轻松达成 24GB 的容量,辅以较 HBM2E 翻倍的 16 通道架构 @ 6.4 Gbps 频率...预计到 2025 年,还可进一步上升至 35%...作为该公司的最新举措之一,其展示了 SK 海力士致力于保护环境、创建可持续和创新的内存生态系统的承诺的决心......

  • AMD发布6nm MI210计算卡:64GB HBM2e显存、300W功耗

    MI200回归单芯封装,规格、性能几乎完全就是MI250砍去一半:291亿个晶体管,104组计算单元,6656个流处理器核心,416个矩阵核心,4096-bit 64GB HBM2e显存,三条Infinity Link互连总线......

  • 英特尔分享HBM加持的Sapphire Rapids-SP数据中心CPU跑分

    英特尔刚刚披露了即将推出的数据中心 CPU 的新基准测试成绩,可知 HBM 加持的 Sapphire Rapids-SP 志强处理器有望带来两倍于 AMD 霄龙 Milan-X 的性能...以 OpenFOAM 流体力学基准测试项目为例,非 HBM 版本的 Sapphire Rapids-SP 芯片性能,就已较 Ice Lake-SP 领先 60%...与 AMD 最近最初的 Milan-X 和早期 Milan 竞品相比,也分别具有 180% / 150% 的领先优势......

  • JEDEC正式发布HBM3内存标准:6.4Gb/s速率 带宽最高819GB/s

    电子元件工业联合会(JEDEC)今天正式发布了 HBM3高带宽内存标准,规范了产品的功能、性能以及容量、带宽等特性...除了6.4Gb/s 速率 @819GB/s 的带宽,它还支持16-Hi 堆栈 @64GB 容量...为了满足市面上对于这类内存可靠性、寿命的需求,HBM3引入了强大的片上 ECC 纠错功能,同时具有实时报告错误的能力...

  • JEDEC正式发布HBM3内存标准:6.4Gb/s速率 819GB/s带宽 16-Hi堆栈

    除了 6.4 Gb/s 速率 @ 819 GB/s 的带宽,它还支持 16-Hi 堆栈 @ 64GB 容量...● 在经过验证的 HBM2 架构的基础上进一步扩展带宽,将每个引脚的速率提升一倍(定义 6.4 GB/s),以实现 819 GB/s 的高带宽...● 支持每层 8~32 Gb 的容量密度,可轻松支持 4GB(8Gb 4-Hi)到 64GB(32Gb 16-Hi)设备密度,预计初代产品将基于 16Gb 存储层......

  • AMD Instinct MI210细节公布:具有104个计算单元和64GB HBM2e显存

    AMD即将发布更多的Instinct MI200系列计算加速卡,基于其全新的Aldebaran CDNA 2GPU架构,主要用于HPC领域。最新公布的消息是Instinct MI210,它将采用单一的Aldebaran CDNA 2GPU计算芯片,拥有6656个内核和64GB HBM2E内存。通过Instinct MI250X和MI250,AMD将MCM技术带到了数据中心和HPC领域。基于其新的CDNA 2架构,新的Aldebaran GPU能够进一步缓解HPC和数据中心的工作负载,但还有更多的MI200系列显卡即将面世,MI210就是其中?

  • 三星分享下一代DDR6-12800、GDDR7与HBM3存储产品规划

    在 2021 年度技术日活动期间,三星电子透露了有关下一代硬件开发的诸多规划。首先从遵循 JEDEC 规范的 DDR5 标准内存模组开始,该公司计划后续推出更高规格的 SKU 。虽然仍处于开发阶段,许多细节还有待进一步证实,但我们大可期待 DDR5-6400、甚至 DDR5-8400 之类的高频模组将会到来。其次是下一代 DDR6 内存标准,据说其速率是 DDR5 的两倍。尽管 DDR6 规范仍处于早期开发阶段,但据 TechPowerUp 所述,每条内存模组的通道数量从

  • 英特尔SPR处理器配备64GB HBM2e、Ponte Vecchio拥有408MB L2缓存

    在一年一度的超算大会上,高性能计算行业的许多参与者都在积极讨论硬件、安装、以及设计等方面的最新进展。期间,芯片巨头英特尔也展示了自家的硬件,并披露了有关下一代 Aurora Exascale 超算的诸多细节。起初,Aurora 计划采用英特尔的 10nm 至强(Xeon)融核(Phi)平台,但随着技术的飞速发展,后续该项目也经历了多次推倒重来。几年前最终敲定的方案,为 Aurora 选用了英特尔 Sapphire Rapids 处理器,特点是配备 HBM2e 高带?