11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
4月24日,苹果开源了大语言模型OpenELM。这与微软刚开源的Phi-3Mini类似,是一款专门针对手机等移动设备的模型。这次苹果真的是很有诚意的开源,一开到底所有内容都贡献出来了,家大业大就是敢玩。
开源大模型还是闭源大模型,究竟谁才是“版本答案”?围绕这个问题,360创始人周鸿祎和百度创始人李彦宏最近就来了一次隔空论战。先是在4月12日,有媒体曝光了李彦宏在百度内部的讲话。大模型到底是开源好、还是闭源更佳,目前在技术层面暂时还没有分出高下,但闭源或开源对于不同公司的商业利益却各有优劣。
在近日的一次内部讲话中,百度董事长李彦宏给开源大模型泼了不少冷水。李彦宏认为,大模型开源的意义不大,闭源模型在成本和能力上会持续领先。其实你仔细听听李彦宏说的是有道理的,他是说在写古诗方面,百度超过了GPT4,”周鸿祎的这番言论也引发了现场轰笑。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、清华团队发布视频大模型Vidu可生成16秒、1080P视频清华大学与生数科技在中关村论坛未来人工智能先锋论坛上发布了中国首个长时长、高一致性、高动态性视频大模型Vidu,标志�
元象公司发布了首个多模态大型模型XVERSE-V,并将其开源。这一模型支持任意宽高比的图像输入,并在多个权威评测中取得了优异的成绩。除了图像识别,XVERSE-V还在多个实际应用场景中表现突出,包括信息图理解、视障场景处理、文本生成、教育解题等。
【新智元导读】前段时间,微软公布并开源了最新一代大模型WizardLM-2,号称性能堪比GPT-4。还未上线一天,模型权重和公告全被删除了,原因竟是......上周,微软空降了一个堪称GPT-4级别的开源模型WizardLM-2。开发者们还需要耐心等待,微软团队承诺,会在测试完成后重新上线。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
扎克伯格:「有了Llama3,全世界就能拥有最智能的AI。」ChatGPT拉开了大模型竞赛的序幕,Meta似乎要后来居上了。也许只有OpenAI的GPT-5才能压下开源模型了。
蚂蚁集团和浙江大学合作开发了一个名为OneKE的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。他们将持续优化知识抽取的性能,并将相关技术应用到金融、医疗、政务等领域,推动可控生成技术的产业落地。
中国电信近期宣布开源其12B参数规模的巨型AI模型TeleChat-12B,此举标志着国内大模型技术发展的又一重要进展。与1月份发布的7B参数版本相比,TeleChat-12B在内容理解、性能表现和应用场景等方面实现了约30%的整体提升,特别是在多轮对话推理和安全相关领域的能力上,提高超过了40%。除了在传统行业中的应用,星辰大模型也在积极探索更多前沿领域的应用,例如在无人机智能编
360公司自主研发的7B参数大模型——360智脑,现已正式上线开源社区,并提供了基础模型以及4K、32K、360K三种不同文本长度的版本。这一大模型在支持文本长度方面表现出色,最长可处理360K长文本,相当于约50万字的输入内容。在中英文360K大海捞针效果测试中,也取得了超过98%的高分。
开源大模型食用指南是一个旨在帮助用户学习和应用开源大模型的全流程指导教程。它提供了详细的环境配置、模型部署、高效微调等方法,以简化开源大模型的使用和应用,让更多普通学习者能够轻松上手。要获取更多详细信息并开始您的开源大模型之旅,请访问开源大模型食用指南官网。
大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。业界已经出现了一批引人瞩目的代码大模型,比如OpenAI的CodeX、谷歌DeepMind的AlphaCode、HuggingFace的StarCoder,帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升效率。aiXcoder也因其极具前瞻性的探索方向、踏踏实实的落地实践,不断受到资本市场的追捧,高瓴、清流、彬复等极具行业引领性的基金
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在百度智能云GENERATE全球生态大会上,百度智能云发布千帆大模型一体机,从算力资源角度分为通用版、昇腾版、昆仑芯版三个版本,为企业私有化部署大模型提供解决方案。千帆大模型一体机预置了百度自研的文心大模型,以及Llama、Baichuan、ChatGLM等十余个主流开源大模型。过去6个月,百度智能云生态伙伴的数量增长了5倍,伙伴们开发的300多款应用通过千帆应用商店”进入市场。
在当今科技快速发展的时代,AI代码生成技术正逐渐成为软件开发领域的热门话题。尽管AI在解决编程问题方面表现出色,但在真实的企业开发环境中,其应用似乎还不够理想。随着代码大模型能力的日益增强,我们有理由相信,aiXcoder-7B将为程序员们带来更多的创新潜能,推动编程自动化的浪潮向前发展。
阿里的通义千问,终于拼齐了1.5系列的最后一块拼图——正式开源Qwen1.5-32B。直接来看“成绩单”。GQA的引入就降低了注意力计算的数量,从加速了推理时间。
AutoGPT的出现让我们见识到了AI代理强大的自动化能力,并开创了一个全新的AI代理赛道。但在子任务调度、资源分配以及AI之间协作还有不少的难题。AIOS会引入更复杂的内存共享机制和层级缓存策略,以进一步优化AI代理的整体性能。
在人工智能领域,一场由APUS与新旦智能联手掀起的开源革命正在上演。4月2日,APUS与战略合作伙伴新旦智能联合训练、研发的千亿MoE架构大模型,在GitHub上正式开源。面对人工智能产业的发展与挑战,APUS将通过持续的技术研发与社区共建,积极探索解决方案,不断提升开源大模型的稳定性和泛化能力,确保其在各类复杂应用场景中始终保持领先优势,进一步赋能千行万业。
据昆仑万维官微发文,天工大模型3.0将于4月17日正式发布,并同步开源4000亿参数MoE超级模型。这一模型采用了4千亿级参数MoE混合专家模型,是全球模型参数最大、性能最强的MoE模型之一。天工大模型3.0的发布和开源,无疑将推动人工智能领域的技术进步和应用创新,为产业界和学术界带来全新的机遇和挑战。
澜舟科技近日宣布,其研发的孟子3-13B大模型正式开源,并向学术研究领域全面开放,同时支持免费商用。这一轻量化大模型在多项基准测试中展现了优异的性能,特别是在参数量20B以内的模型中,其中英文语言能力尤为突出,数学和编程能力也位于行业前列。这一举措无疑将推动大模型技术的发展和应用,为AI产业的进步贡献力量。
2023年4月17日,昆仑万维发布自研双千亿级大语言模型「天工1.0」正式奠定了国产大模型崛起之路。「天工3.0」也是全球首个多模态“超级模型”,其集成了AI搜索、AI写作、AI长文本阅读、AI对话、AI语音合成、AI图片生成、AI漫画创作、AI图片识别、AI音乐生成、AI代码写作、AI表格生成等多项能力,是大模型时代的“超级应用”。“超级模型”的概念诞生于“超级应用”。
在即将到来的2024年4月17日,也就是「天工」大模型一周年之际,昆仑万维宣布「天工3.0」正式开启公测!这一版本采用了4千亿级参数的MoE混合专家模型,并将选择开源,是全球模型参数最大、性能最强的MoE模型之一。「天工3.0」相较于上一代的「天工2.0」MoE大模型,在模型语义理解、逻辑推理、通用性、泛化性、不确定性知识、学习能力等方面都有惊人的性能提升。用户可以在4月17日下载新版的“天工AI助手”App,来体验超级模型的震撼AI功能。
DeepMind这篇论文一出,人类标注者的饭碗也要被砸了吗?大模型的幻觉终于要终结了?今日,社媒平台reddit上的一则帖子引起网友热议。帖子讨论的是谷歌DeepMind昨日提交的一篇论文《Long-formfactualityinlargelanguagemodels》,文中提出的方法和结果让人得出大胆的结论:对于负担得起的人来说,大语言模型幻觉不再是问题了。更多技术细节和实验结果请参阅原论文。
3月29日,知名AI研究实验室AI21在官网开源了,首个基于SSM-Transformer混合架构的商业大模型——Jamba。ChatGPT、StableDifusion、Lyria等产品使用的皆是Transformer架构,虽然在捕捉序列内长距离依赖关系、泛化能力、特征提取等方面非常优秀,但在处理长序列、训练大参数模型时存在AI算力消耗大、过拟合、内存占用大等缺点。耐克、Zoom、沃尔玛、三星、阿迪达斯、airbnb等知名企业在使�
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事DBRX抢占开源大模型王座编程、数学等领域超越GPT-3.5Claude3再次登顶!化学专业一骑绝尘,全面碾压GPT-4清明节前AI复活亲人成热门生意:几十元到上百元不等微软亚�
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
最新开源大语言模型DBRX以其惊人的1320亿参数量成为业界新宠。该模型不仅在语言理解、编程和数学等方面超越了业内领先的开源模型在效率上有所突破。随着其在各项基准测试中的优异表现,DBRX有望成为未来开源大模型发展的重要里程碑,为人工智能领域的进步贡献力量。
元象大模型开源了30款量化版本,支持vLLM和llama.cpp等主流框架的量化推理,无条件免费商用。对量化前后的模型能力、推理性能进行评估,以XVERSE-13B-GPTQ-Int4量化版本为例,量化后模型权重压缩了72%,总吞吐提高了1.5倍,同时保留了95%的能力。元象大模型的开源量化版本提供了方便快捷的部署方式,可以根据需求选择不同的框架和精度模型进行部署和推理。
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。