11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
腾讯云
12-20
昇思MindSpore开源社区将于2025年12月25日在杭州举办昇思人工智能框架峰会。届时,MindSpore Lite团队将分享基于MindSpore Lite的端侧AI推理优化技术实践,重点介绍CPU混合精度推理方案在鸿蒙翻译模型部署中的应用。该方案通过混合精度子图调度、IO免拷贝等关键技术,将鸿蒙内置翻译模型的推理内存优化至66MB,相比原始100MB以上显著降低,支持模型在鸿蒙6.0上线部署。文章还详细阐述了MindSpore Lite的模型转换流程、推理API及性能验证方法,展示了其在降低内存、提升性能方面的优势,为开源模型的商用部署提供技术保障。
什么?Kimi底层推理架构刚刚宣布:开!源!了!你没听错,就是那个承载了Kimi线上80%以上流量的架构。大约几小时前,月之暗面Kimi联合清华大学等机构,开源了大模型推理架构Mooncake。Mooncake开源项目从论文延伸,以超大规模KVCache缓存池为中心,通过以存换算的创新理念大幅度减少算力开销,显著提升了推理吞吐量。
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。目前在移动设备上运行的模型相对较小,并且消耗大量内存,这在很大程度上限制了其应用场景。如果PowerInfer-2.0能够与手机厂商进一步紧密合作,相信可以加速相关技术走出实验室,落地到各种真实场景。
【新智元导读】24点游戏、几何图形、一步将死问题,这些推理密集型任务,难倒了一片大模型,怎么破?北大、UC伯克利、斯坦福研究者最近提出了一种全新的BoT方法,用思维模板大幅增强了推理性能。Llama3-8B在BoT的加持下,竟多次超越Llama3-70B!大语言模型不擅长推理怎么办?用思维缓冲区来解决!最近,北大、UC伯克利、斯坦福的研究人员提出了一种元缓冲区。他担任/曾担任中�
新加坡国立大学联合加州大学圣芭芭拉分校与奥克兰大学的研究人员提出了一种名为SymbCoT的全新推理框架,旨在提升大语言模型的符号逻辑推理能力。这一框架结合了符号化逻辑表达式与思维链,极大提升了推理的质量、鲁棒性与可信度。不同LLM的影响:SymbCoT与更先进的模型之间的协同效应更为显著。
北京大学最近发布了一种新的图像生成框架,名为VAR。这一突破性的技术首次使GPT风格的自回归模型在图像生成上超越了扩散transformer,同时展现出了与大语言模型观察到的类似Scalinglaws的规律。VAR算法为计算机视觉中的自回归算法设计提供了新的见解,有望推动这一领域的进一步发展。
随着ChatGPT的出现,大语言模型在生成连贯文本和遵循指令方面获得了巨大技术突破。然后在推理和解决复杂内容方面,面临内容不准确、安全等难题。每次只需要一个查询获得相似性能的集成方法需要40倍的查询量,也就是说可以节省很多算力资源。
在AAAI2024上,小红书搜索算法团队推出了一项创新框架,旨在解决大语言模型在推理任务中的黑盒属性和庞大参数量带来的问题。传统研究方法主要关注正样本这项工作强调了负样本在知识蒸馏中的价值。这一研究为提高大语言模型应用性能提供了新思路,通过引入负样本的知识,弥补了传统研究方法的不足,为推理任务的应用提供了更可靠和高效的解决方案。
原本需要一张16万元的80GA100干的活,现在只需要一张不到2万元的24G4090就够了!上海交大IPADS实验室推出的开源推理框架PowerInfer,让大模型推理速度加快了11倍。且不用量化,就用FP16精度,也能让40B模型在个人电脑上运行;如果加入量化,2080Ti也能流畅运行70B模型。现有的云端CPU也有强大的AMX计算单元支持,通过利用CPU、GPU间的异构特征,可以乐观地认为PowerInfer能够使用更少的高
百度发布Apollo开放平台9.0,全面升级自动驾驶开发领域,包括工程、算法和工具三方面,重构12万行代码,新增20万行。工程框架拆分成小软件包,提高灵活性;算法优化感知算法,支持4D毫米波雷达;工具升级包括高精地图、传感器标定等,提升Dreamview效率。项目网址:https://julian-parker.github.io/stemgen/论文网址:https://arxiv.org/abs/2312.08723👨�