11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
快科技4月8日消息,今天,中国联通浙江分公司启动了国产GPU服务器采购项目的招标工作,项目预算4058.24万元。此次招标预估采购32台GPU服务器和8台ROCE交换机,不含税预算为4058.24万元,合同签订上限金额不得超过预算金额。合同有效期为自合同签订之日起12个月,若订单合计金额未达预估金额,合同有效期可延长至订单合计金额达到预估金额时止,但最多延长1年。交付时间要求为在订单下达后,21日内到货,并在到货后1周内完成安装和联调。项目还设置了最高投标限价,折扣率最高投标限价为87.21%,投标人投标报价超过最高投标限价的,将作否?
2025中关村论坛年会于3月27日至31日在北京举办。作为人工智能时代的智算底座,摩尔线程在"人工智能"集群展区展示了从端到边缘到云的全栈算力产品,包括夸娥万卡智算集群、全功能GPUOAM模组、MCCXD800X2服务器和人工智能计算模组E300等重磅产品,全面呈现了以国产全功能GPU为底座的通用加速计算平台及创新成果。我们的愿景是为美好世界加速。
近日,国产GPU大厂沐曦集成电路被传出在IPO上市前实施裁员计划,涉及约20%的员工,目的是降低成本以提高上市成功率。对此沐曦方面回应称:为顺应公司发展,公司会定期开展人员结构调整工作,优化人员配置,此过程有人员的补充与裁撤,均属正常范畴,并非市场传言增加上市概率,市场传言的优化比例也严重失实。今年2月,沐曦通过超讯通信拿下两笔大单,总金额达14.88亿元人民币,采购内容包括基于沐曦曦云C500-PPCIe的训推一体服务器及相关平台服务。
据国内媒体报道称,DeepSeek在研发大模型时绕过了英伟达的护城河CUDA,这让美国不少巨头们感到了很大的威胁现在这件事才刚刚开始。DeepSeek真的绕过了CUDA,那这件事意味着什么?假如它之后使用国产GPU,其在硬件适配方面将会更得心应手,其只要了解这些硬件驱动提供的一些基本函数接口,就可以仿照英伟达GPU硬件的编程接口去写相关的代码,从让自家大模型更加容易适配国产硬件。
快科技11月9日消息,据国家企业信用信息公示系统公示,摩尔线程智能科技(北京)股份有限公司(下称摩尔线程”)的市场主体类型,在10月28日由其他有限责任公司变更为其他股份有限公司(非上市)。同时,公司的注册资本由2441.32万元增至3.3亿元。据国内媒体报道,一位接近摩尔线程的人士透露,摩尔线程已完成股份制改造,正在准备上市,预计很快会有新进展。专业人士表示,股份有限公司是上市公司的法定主体类型,股份制改造涵盖股权结构、内部管理架构、财务结构等方面的调整,被视为上市前的准备步骤,它能起到提升企业治理水平、优化?
近日,摩尔线程上线了大语言模型高速推理框架开源项目vLLM的MUSA移植版本,为开发者提供基于摩尔线程全功能GPU进行开源项目MUSA移植的范例。摩尔线程表示,正努力围绕自主研发的统一系统架构GPU、MUSA软件平台,构建完善好用的MUSA应用生态。摩尔线程通过MUSA软件栈对CUDA软件栈接口兼容,大幅提升了应用移植的效率,缩短了开发周期提供MUSIFY自动代码移植工具等一系列实用工具和脚本。
摩尔线程与苏州德锐特成像技术有限公司宣布达成深度战略合作。双方将依托各自的资源和技术优势,共同研发基于国产全功能GPU的冷冻电镜及计算化学相结合的一站式解决方案,致力于推动国内生物科技创新领域的技术革新和产业升级。我们的愿景是为美好世界加速。
快科技8月30日消息,据媒体报道,今天脉脉流出消息称,国产芯片独角兽象帝先公司召开全员会议宣布解散,所有400多位员工今日起终止合同,原地失业。根据公司官网介绍,象帝先计算技术(重庆)有限公司成立于2020年9月,是一家高性能通用/专用处理器芯片设计企业,已在北京、上海、重庆、成都、苏州等地设立了研发中心。公司研发适用于桌面、工作站、边缘计算等领域的高性能、低功耗、具有完全自主知识产权的通用CPU/GPU及相关专用芯片产品。董事长、首席执行官唐志敏同时也是中国科学院计算技术研究所主任研究员、计算机科学技术名词审定?
无论是游戏显卡还是AI加速卡,NVIDIA都已经是绝对垄断地位在当前的形势下,我们不但要有自己的游戏卡,更要有自己的加速卡。摩尔线程英勇地都扛了起来,率先交付全国产千卡千亿模型算力集群之后,又率先拓展到了万卡、万P、万亿规模!值得一提的是,依托夸娥智算集群的强兼容、高算力等特性,风乌成功在24小时内就完成了从CUDA到MUSA的无缝、快速生态迁移,首次实现从硬件到算法的全国产化,且性能、精度均达到国际先进水平。
今天,摩尔线程官方发布通告称,摩尔线程首个全国产千卡千亿模型训练平台,摩尔线程KUAE智算中心揭幕仪式成功举办。此举也代表着,国内首个以国产全功能GPU为底座的大规模算力集群正式落地。以2000亿训练数据量为例,智源研究院700亿参数Aquila2可在33天完成训练;1300亿参数规模的模型可在56天完成训练。