11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
小米汽车官方宣布,小米SU7汽车已接收到XiaomiHyperOS1.4.5版本的OTA更新,此次更新带来了13项新功能和26项体验优化。更新亮点包括VLM视觉语言大模型的接入,使系统能够识别复杂道路环境和特殊交通规则区域,并通过文字和语音提示驾驶员。还优化了胎压报警触发时的报警弹窗、制动系统热衰后报警提示、电动尾翼功能和电动尾翼与后备箱之间的逻辑。
OpenBuddy团队发布了基于MetaLlama370B的最新成果:OpenBuddy-Llama3-70B-v21.1-8k,这是他们首次在Llama370B基座上的中文跨语言训练尝试。Llama370B是一个15T训练集训练成的稠密大模型,然由于训练集中缺少中文数据,Meta官方的Llama3系列对话模型在中文领域的认知、理能力较弱,容易出现以英文回答中文问题的现象。值得一提的是,于量化版模型能力下降较为明显,他们本次只发布了模型的完整版权重,后续会尝优化70B模型的量化后性能,并挑选合适时机发布量化版。
新型社交平台Soul近日宣布上线自研语言大模型SoulX。该模型基于海量数据训练,具备prompt驱动、条件可控生成、上下文理解、多模态理解等能力,能够在保证对话流畅、自然、具备情感温度的同时,覆盖百种细粒度风险类别,保证了大模型的内容生产质量和安全性。SoulX的强大能力,将为Soul在社交关系和内容链路的打造上带来新的可能。
北京大学和中山大学等机构的研究者提出了一种名为Chat-UniVi的视觉语言大模型,实现了统一的视觉表征,使其能够同时处理图片和视频任务。这一框架的独特之处在于,它不仅在深度学习任务中表现卓越仅需短短三天的训练时间,就能够训练出具有130亿参数的通用视觉语言大模型。Chat-UniVi的提出为视觉语言模型的研究领域带来了新的思路,通过统一的视觉表征实现了对多模态数据的高效处理,为深度学习模型的训练和推理提供了更加便捷和经济的解决方案。
最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这些结果证明了联合图片和视频一起训练能够促进LLM理解视觉表示。
元象XVERSE公司宣布开源其百亿参数的高性能通用大模型XVERSE-13B,可免费商用。XVERSE-13B是由深圳元象科技自主研发的支持多语言的大语言模型,基于它生成的服务包括了文本生成、自动化写作、数据分析、知识问答等方面。训练框架:经过对算子、通信、并行策略及调度等的优化,千卡集群上的峰值算力利用率达到58.5%,达到业界前列。
7月12日,【东风生万物】思必驰DFM-2大模型及创新技术应用成果发布会在苏州成功举行。思必驰董事长、CEO高始兴,联合创始人、首席科学家俞凯,分别分享了思必驰的未来战略以及以DFM-2大模型为代表的对话式AI创新技术。思必驰将发挥平台技术和语言大模型的优势,在政策指导下,建好“语言计算国家新一代人工智能开放创新平台”,提升创新技术发展与科研成果转化,助力产业整体竞争力提升,努力成长为壮大创新集群的支撑力量。
在疫情爆发最初的12个月里,有超过100,000篇关于新冠病毒论文发表这产生了大量新信息。想要阅读和理解每一项研究是不可能的从理论上来说,Galactica可以做到。人工智能背后的团队没有回应澄清导致暂停的原因的请求。