11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
在2007年CSDN、《程序员》主办的开发者大调查目前已收到15000多份有效问卷,已经是目前国内调查样本最多的开发者调查结果。
自动摘要技术取得了长足的进步,这主要归功于范式的转变——从在标注数据集上进行有监督微调转变为使用大语言模型进行零样本prompt,例如GPT-4。不需要额外的训练,细致的prompt就能实现对摘要长度、主题、风格等方面特征的精细控制。更多论文细节,可参考原论文。
阿里云旗下魔搭社区宣布开源视觉语言模型Qwen-VL。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入,具备多模态信息理解能力。该模型的推理速度快,资源消耗相对较低。
3+月+30+日,第二十五届中国高速公路信息化大会在福建福州隆重召开,大会主会场举行了“+2023+高速公路信息化年度推选活动”揭晓盛典,年度杰出工程、最+佳产品、优+秀设计单位、领军人才依次揭晓。拓维信息系统股份有限公司携手旗下开鸿智谷基于OpenHarmony推出的“开源鸿蒙云收费站解决方案”获评本次年度“最+佳产品”。不论高速公路的数智之“路”将往何处延伸,主流技术将如何变迁、衍变,但收费站所“站”之地,在当前“一张网”运营大局下是可以预见的,拓维信息开源鸿蒙云收费站解决方案作为深度融合OpenHarmony、边缘云、物联网等先进技术,精准破解收费站通行瓶颈的重磅力量之一,将全面“加速”收费站场景的数智延伸。
抗击新冠肺炎,已成为全球共同的一场战“疫”。近日,腾讯正式上线“Together We Can”全球战“疫”信息平台。该平台整合四款在线医疗产品,旨在为全球用户提供从科普、自测、问诊、用药建议等一站式医疗信息服务。“这个关键时刻需要全球合作,”腾讯公司总裁刘炽平表示,当下要以开源的心态协同生态力量,发挥互联网技术力量,并肩战“疫”。作为中国互联网技术的领军者,腾讯此次开放在线医疗信息服务,联动全球开发者并肩作战?
DeepMind这篇论文一出,人类标注者的饭碗也要被砸了吗?大模型的幻觉终于要终结了?今日,社媒平台reddit上的一则帖子引起网友热议。帖子讨论的是谷歌DeepMind昨日提交的一篇论文《Long-formfactualityinlargelanguagemodels》,文中提出的方法和结果让人得出大胆的结论:对于负担得起的人来说,大语言模型幻觉不再是问题了。更多技术细节和实验结果请参阅原论文。
通义千问团队推出了Qwen系列的首个MoE模型,命名为Qwen1.5-MoE-A2.7B。这个模型只有27亿个激活参数,但性能却与当前最先进的70亿参数模型相媲美。Qwen1.5-MoE模型在性能、效率和推理速度方面取得了显著的优势,是推理训练的最佳实践之一。
日前,360创始人周鸿祎发文,称自己是开源的信徒”,信奉开源的力量。他还宣布即将开源360智脑7B,支持360k长文本输入。月之暗面宣布Kimi智能助手启动200万字内测,文心一言计划在下个月将字数上限提高至200万-500万字。
360创始人周鸿祎公开宣布了一个重要决定:即将开源360智脑7B模型,该模型具备70亿参数,并支持长达360k的文本输入。周鸿祎自称为“开源的信徒”,坚信开源的力量,并认为此举可以避免行业内的重复劳动,推动技术进步。阿里通义千问更是宣布免费开放1000万字长文档处理功能,进一步推动了长文本处理技术的发展。
由阿里、复旦大学、南京大学联合发布的可控人体视频生成工作Champ火爆全网。该模型仅开源5天GitHub即收获1k星,在Twitter更是「火出圈」,吸引了大量博主二创,浏览量总量达到300K。更多技术细节以及实验结果请参阅Champ原论文与代码,也可在HuggingFace或下载官方源码动手体验。
开源人工智能平台LightningAI宣布与Nvidia合作,发布了名为“Thunder”的下一代AI编译器,旨在加速人工智能模型的训练速度。据LightningAI称,该编译器在实际场景中相比未优化的代码,可将大型语言模型的训练速度提高高达40%。LightningStudios的产品可以按四个定价级别购买:个人开发者免费,工程师、研究人员和科学家专业级;初创公司和团队的团队级别,以及大型组织的企业级别。
3月29日,知名AI研究实验室AI21在官网开源了,首个基于SSM-Transformer混合架构的商业大模型——Jamba。ChatGPT、StableDifusion、Lyria等产品使用的皆是Transformer架构,虽然在捕捉序列内长距离依赖关系、泛化能力、特征提取等方面非常优秀,但在处理长序列、训练大参数模型时存在AI算力消耗大、过拟合、内存占用大等缺点。耐克、Zoom、沃尔玛、三星、阿迪达斯、airbnb等知名企业在使�
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事DBRX抢占开源大模型王座编程、数学等领域超越GPT-3.5Claude3再次登顶!化学专业一骑绝尘,全面碾压GPT-4清明节前AI复活亲人成热门生意:几十元到上百元不等微软亚�
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
最新开源大语言模型DBRX以其惊人的1320亿参数量成为业界新宠。该模型不仅在语言理解、编程和数学等方面超越了业内领先的开源模型在效率上有所突破。随着其在各项基准测试中的优异表现,DBRX有望成为未来开源大模型发展的重要里程碑,为人工智能领域的进步贡献力量。
元象大模型开源了30款量化版本,支持vLLM和llama.cpp等主流框架的量化推理,无条件免费商用。对量化前后的模型能力、推理性能进行评估,以XVERSE-13B-GPTQ-Int4量化版本为例,量化后模型权重压缩了72%,总吞吐提高了1.5倍,同时保留了95%的能力。元象大模型的开源量化版本提供了方便快捷的部署方式,可以根据需求选择不同的框架和精度模型进行部署和推理。
AniPortrait是一个创新的项目,它能够基于音频和一张参考人脸照片来生成高品质的动画。这个项目的工作原理分为两个步骤。虽然它可能没有EMO演示的那么好,但是它直接开源,对于有需求的用户来说,可以直接使用。
DBRX是一个由Databricks的Mosaic研究团队构建的通用大型语言模型,在标准基准测试中表现优于所有现有开源模型。它采用Mixture-of-Experts架构,使用362亿个参数,拥有出色的语言理解、编程、数学和逻辑推理能力。为了体验「DBRX」的强大功能,请访问AIbase网站查看更多介绍。
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。
随着短视频在社交媒体和营销领域的普及,一款名为MoneyPrinterTurbo的工具应运生,旨在帮助用户轻松制作出专业品质的短视频。项目地址:https://github.com/harry0703/MoneyPrinterTurbo这款工具的强大之处在于,用户只需输入一个主题或几个关键词,就能自动生成一分钟长的短视频。且它是开源的,这意味着开发者可以不断改进和扩展其功能,为用户带来更好的体验。
StabilityAI开源了小体量预训练模型StableCodeInstruct3B。StableCodeInstruct3B是一个基于StableCode3B的指令调整编码语言模型。值得一提的是,StableCodeInstruct3B现在可以通过StabilityAI会员资格用于商业目的。
清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。
LoRA的高效能力已在文生图领域获得广泛应用,可以准确渲染、融合图像中的特定元素,例如,不同字符、特殊服装或样式背景等,同时可对图像进行压缩、去噪、补全进行优化操作。但想在模型中应用多个LoRA构建更复杂的图像时,会出现图像失真、难以控制细节的难题。尤其是使用数量较多的LoRA组合时,生成高质量的效果更加明显。
MistralAI最新开源了Mistral7Bv0.2BaseModel,在一个名为CerebralValley的黑客松活动上宣布。这次更新将上下文提升到32K,取消了滑动窗口,同时设置了RopeTheta为1e6。MistralAI将继续努力,与同行竞争,并为客户提供更优质的人工智能解决方案。
在2024全球开发者先锋大会上,魔搭社区推出了“ModelScope-Sora开源计划”,旨在通过开源力量促进中国类Sora模型的探索与创新。该计划提供一站式工具链,包括数据处理工具、多模态数据集、类Sora基础模型、训练推理工具等。魔搭计划构建开放的中文高质量多模态数据集,助力中国多模态大模型的发展。
在当今的IT领域,监控和观测系统是确保企业业务连续性和提升运维效率的关键。随着云计算和微服务架构的普及,企业对于监控解决方案的需求变得更加复杂和多样化。企业在选择监控方案时,应根据自身的业务需求、技术能力和资源状况,做出最适合自己的方案。
一款名为O1的AI语音设备引起了广泛关注。这款设备可以让用户无论身处何地,都能轻松地通过语音控制家里的电脑完成任务。随着AI技术的不断发展,我们有理由相信,O1将会为用户带来更加便捷、智能的生活。
Grok-1,由xAI推出的314亿参数的专家混合模型,标志着在大型语言模型领域的一大步。该模型未经针对特定应用的微调,展现了Grok-1预训练阶段的原始基础模型检查点。为了深入了解「Grok-1」的能力,请访问官网查看更多详情。
智源研究院推出了新一代检索排序模型BGERe-Rankerv2.0,支持100种语言,文本长度更长,并在多项评测中达到了SOTA的结果。该模型是智源团队在BGE系列基础上的新尝试,扩展了向量模型的“文本图片”混合检索能力。智源研究院推出的BGERe-Rankerv2.0检索排序模型具有强大的多语言支持、更长文本长度、优秀的检索效果和灵活的“文本图片”混合检索功能,为信息检索领域带来了新的利器。