11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
中国科学技术大学张燕咏团队在昇腾算力支持下,成功研发出基于专家选择分布预测的专家负载均衡和all2all通信均衡框架。该框架通过“三步走”策略,有效解决了MoE稀疏大模型推理中的专家负载不均和通信开销大两大难题,显著提升推理性能。实验显示,该方案在多项指标上较主流方案提升超30%,为昇腾技术优化MoE模型推理提供了宝贵借鉴,将加速其在各领域的落地应用。
在2025金融AI推理应用落地与发展论坛上,华为重磅发布了其AI推理创新技术UCM(推理记忆数据管理器)。这项技术被业内视为有望重塑国内AI推理格局的关键突破。 UCM技术的核心在于其先进的KV Cache系统,通过融合多种缓存加速算法工具与精细的分级管理策略,高效处理推理过程中产生的大量记忆数据。这带来了多重显著优势:有效扩大上下文窗口,确保推理过程的高吞吐量与
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、智谱GLM-4.5V开源发布:全球100B级最佳视觉推理模型智谱宣布推出并开源了全球100B级效果最佳的开源视觉推理模型GLM-4.5V,这是该公司在通向通用人工智能(AGI)道路上的又一重要探
华为将于8月12日在2025金融AI论坛发布AI推理领域突破性技术成果。该技术有望降低中国AI对HBM高带宽内存的依赖,提升大模型推理性能,完善国内AI生态。HBM作为3D堆叠DRAM方案,具有高带宽、低延迟等优势,是高端AI芯片标配,但面临产能紧张和美国出口限制。国内厂商正探索Chiplet封装、低参数优化等替代方案。
上周我写过一篇AI产品自用分享,当时我说,AI知识问答方面,我会选择openai o3和豆包。 PC场景下,o3比较多,而手机场景下,我用的比较多的还是豆包。 虽然ChatGPT也有app,但一旦手机开了魔法,微信啥的还有一些其他的应用,就很容易卡,非常的不方便。 所以我前两天在上海逛ChinaJoy的时候,看到一些忘了的图,或者是我不懂的梗,我都是随时随地问豆包。 比如这个暴�
【AI日报】汇总了最新AI领域动态:1)腾讯开源混元系列小尺寸模型,适用于消费级显卡;2)昆仑万维发布推理大模型MindLink,提升回答透明度;3)B站推出AI原声翻译功能,保留UP主音色;4)谷歌Gemini 2.5在数学奥赛夺金,展现强大推理能力;5)OpenAI展示GPT-5网络信息整合特性;6)苹果组建AI团队挑战ChatGPT;7)高德地图推出全球首个AI原生地图应用;8)Adobe推出AI图像合成工具Harmonize;9)NVIDIA发布革命性视频渲染技术;10)谷歌推出Android Studio免费AI编程助手;11)开源结构化信息提取工具LangExtract;12)Figma开发者模式升级提升设计转代码效率。
文章概述了脑机接口技术从科幻走向现实的发展历程。马斯克旗下Neuralink团队近期完成两例脑机芯片植入手术,帮助瘫痪患者实现意念操控;中国在非侵入式技术领域取得突破,通过脑电波监测实现精准睡眠管理。全球首款集成脑电技术的AI床垫"宝酝·BrainCo"问世,能实时监测睡眠状态并动态调节,标志着睡眠科技进入"神经级"智慧睡眠新阶段。中国脑机技术虽起步较晚但发展迅猛,已进入全球领先梯队,预计2025年将成为临床转化元年。随着国家政策支持与3亿睡眠障碍人群需求,脑电技术正构建个性化睡眠健康管理生态,未来有望延伸至智能家居多场景应用,推动万亿级睡眠健康产业发展。
文章分析了保险业从数字化向数智化转型的趋势,重点对比了中国人保和太平洋保险两款APP的运营策略。中国人保APP以"车险+健康+高频生活服务"构建生态闭环,通过加油、救援等高频场景提升用户活跃度;太平洋保险APP聚焦健康管理领域,打造专业医疗服务壁垒。两者分别面临功能冗余和场景单一的挑战,但共同验证了未来保险APP需平衡"广度连接"与"深度服务"的发展方向。
豆包App近期升级视觉推理能力,支持在思维链中运用图像思考。用户上传图片提问时,豆包能主动分析图片内容,智能放大局部细节确保不遗漏关键信息。对于复杂图片,还能智能裁剪并调用搜图功能提供更准确结果。升级后的豆包可智能调用多种工具辅助分析图片,无论是日常识物、商品查询,还是工作学习中分析图表、专业图片,都能给出更精准实用的答案。据悉,豆包是国内首个实现这一能力的产品,用户可免费体验。
北京大学张牧涵团队在昇腾算力支持下,研发出一套高效大模型训练推理架构,实现百万tokens输入成本低至1元。该成果包含三项关键技术:1)通过分离注意力头中的位置与非位置信息,仅用3%位置信息即可维持模型性能;2)采用联合KV低秩压缩方法,仅保留12.5%的KV Cache;3)基于昇腾硬件并行计算能力,实现Recurrent Decoding技术提升训练数据利用率。该架构显著降低AI大模型应用成本,验证了昇腾算力平台支撑尖端科研的实力。