11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
腾讯云
12-20
DeepSeek在GitHub开源新一代OCR模型,采用创新光学二维映射压缩技术,在长文本识别场景实现97%准确率。模型通过动态压缩生成最优视觉特征令牌,较传统方法减少60%计算冗余。实验显示在1:20压缩率下仍保持60%以上准确率,显著优于同类模型。该技术路径为OCR系统小型化提供解决方案,其动态压缩策略对大型语言模型的记忆管理机制具有重要启示。
本文汇总了AI领域最新动态:1)中国信通院发布智能体开发标准,推动AI商业化进程;2)阿里推出QwenLong-L1-32B长文本推理模型,性能媲美Claude-3;3)GPT-4o语音模式升级,新增唱歌功能;4)秘塔AI搜索推出极速模型,响应速度达400tokens/秒;5)谷歌发布LMEval评估框架,统一大模型评测标准;6)Chrome浏览器集成Gemini AI助手;7)阿联酋全民免费使用ChatGPT Plus;8)苏州成立60亿元AI产业基金;9)法国Kyutai实验室推出10秒定制语音的Unmute系统;10)UAV-Flow项目实现无人机语音精准控制;11)Claude将升级支持百万字上下文和记忆功能;12)百度心响iOS版上线;13)夸克推出高考深度搜索功能;14)Chrome v137开发者工具升级;15)美团AI业务接近GPT-4o水平;16)Direct3D-S2实现3D生成速度提升10倍;17)OpenAI计划2026年推出首款AI硬件。
【新智元导读】LLM训练速度还可以再飙升20倍!英伟达团队祭出全新架构归一化Transformer,上下文越长,训练速度越快能维持原有精度。AI的未来,或许就此改写......最近,英伟达团队抛出的一枚重磅炸弹,提出了全新神经网络架构——归一化Transformer,基于超球面进行表示学习。下图6展示了,注意力模块和MLP模块的特征学习率,应用于MLP中间状态的缩放因子,应用于QK点积之前�
它早已不是一家单纯的通信运营商是通过构建多模态基座大模型,打造全要素“AI”服务运营体系,成为通用人工智能时代的供给者、汇聚者和运营者。
越来越多研究发现,后训练对模型性能同样重要。AllenAI的机器学习研究员NathanLambert最近发表了一篇技术博文,总结了科技巨头们所使用的模型后训练配方。到了一定的时间节点,这些细节都会变得微不足道。
作为AIGC领域的一站式生成平台,近日对其文生图功能进行了重大升级,这不仅为文生视频的发展奠定了重要技术壁垒,也展现了公司在图像生成领域的雄心壮志。智象未来对文生图功能的预期非常高,一直以自己的节奏推进,旨在实现更多样化的功能、更逼真的视觉效果以及更友好的用户体验。得益于其在深入理解长文本和复杂图像逻辑处理方面的杰出表现,智象大模型2.0已�
近日,月之暗面宣布Kimi开放平台正式公测新技术——上下文缓存,该技术在API价格不变的前提下,可为开发者降低最高90%的长文本大模型使用成本,并且显著提升模型的响应速度。据了解,月之暗面是国内首家面向开发者推出上下文缓存技术的大模型公司。Kimi开放平台陆续上线了工具调用、PartialMode、上下文缓存等能力,持续帮助开发者高效打造更有想象力的AI应用。
AI发展科研机构Epochai在官网发布了一项,关于大模型消耗训练数据的研究报告。人类公开的高质量文本训练数据集大约有300万亿tokens。不要等着枯竭的那一天,望着荒漠干流泪。
4月26日,科大讯飞发布了最新版本的星火大模型V3.5,旨在解决用户在获取知识时面临的效率与准确性问题。这款前沿模型融合了长文本、长图文及长语音处理能力,针对招投标和合同管理等场景进行了深度优化,显著提升了AI在复杂信息处理上的能力。随着V4.0版本的预告,可以预见科大讯飞将持续推动AI技术的边界,为用户提供更全面的知识获取解决方案,开启智能化新篇章,引领行业发展至新的高度。
科大讯飞近期发布了讯飞星火大模型V3.5春季新版本,实现了对长文本、长图文、长语音的全面支持,开创了知识获取效率的新纪元。这一创新标志着人工智能技术的重大飞跃,展现了科大讯飞在AI领域的领导地位。随着信息时代的快速发展,各种形式的信息如潮水般涌现,如何从这些海量的数据中快速提取有价值的信息,成为众多用户和企业面临的难题。科大讯飞此次发布的�