11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
【新智元导读】当今的LLM已经号称能够支持百万级别的上下文长度,这对于模型的能力来说,意义重大。但近日的两项独立研究表明,它们可能只是在吹牛,LLM实际上并不能理解这么长的内容。这些差异可能是由于训练任务的变化造成的。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、震惊AI界!14、微软研究院推AI框架E5-V:用文本对的单模态训练简化多模态学习降低成本微软研究院与北京航空航天大学联合推出的E5-V框架通过单模态训练简化多模态学习,降低成本,在多个任务中展现出优异性能,代表了多模态学习的重大进步。
Llama3.1终于现身了,不过出处却不是Meta官方。Reddit上新版Llama大模型泄露的消息遭到了疯传,除了基础模型包括8B、70B和最大参数的405B的基准测试结果。在部署Llama3.1模型的任何应用之前,开发人员应针对模型的具体应用进行安全测试和微调。
根据SuperCLUE发布的中文大模型基准测评最新报告,阿里通义千问开源模型Qwen2-72B-Instruct以卓越的表现位居国内通用能力第一,更在全球范围内成为最强开源模型。SuperCLUE报告详细披露了对国内外33个大模型的综合测评结果,Qwen2-72B在一级总分上以77分的高分与Claude-3.5-Sonnet并列第二,仅次于OpenAI的GPT-4o。截至目前Qwen系列模型的下载量已突破2000万次,其应用场景覆盖了工业、金融、医疗、汽车等多个垂直领域。
在2024年世界人工智能大会上,百度创始人李彦宏直言不讳地表示,开源模型相当于一种智商税”。他坚持认为闭源模型将保持领先,并强调即使是规模较小的闭源模型,其效果也优于同等规模的开源模型。HuggingFace联合创始人兼CEOClem此前也曾表示,中国在全球开源大模型领域已经处于领导地位,大模型覆盖国内外主流厂商,联动开源社区,支持企业快速上架通用或行业模型。
在2024年世界人工智能大会期间,李彦宏在一场圆桌访谈中对开源与闭源模型进行了讨论,并直言不讳地称开源其实是一种智商税。面对开源闭源的问题,李彦宏坚持认为闭源模型会持续领先,他解释说,闭源模型可以根据用户需求提供多种变体,以平衡效果、推理速度和成本。大模型的加持能让各行各业的公司受益,这种影响力对整个社会和人类来说更为重要。
导读:时隔4个月上新的Gemma2模型在LMSYSChatbotArena的排行上,以27B的参数击败了许多更大规模的模型,甚至超过了70B的Llama-3-Instruct,成为开源模型的性能第一!谷歌出手,果然非同凡响。Gemma2上周刚刚发布,就在LMSYS竞技场上取得了亮眼的成绩。」看来在基准测试领域,重复的历史总在不断上演那个金句也总是适用——「当一个衡量标准成为目标时,它就不再是一个好的衡量标准了
大模型领域,开源与闭源之争一直是技术和产业界关注的焦点。阿里云通义千问最新发布的Qwen2系列模型,为这场争论提供了最新的答案。阿里云已然为这一愿景打造了一块关键拼图。
斯坦福团队抄袭清华系大模型事件后续来了——Llama3-V团队承认抄袭,其中两位来自斯坦福的本科生还跟另一位作者切割了。最新致歉推文,由SiddharthSharma和AkshGarg发出。正如刘知远老师所说:此瓜甚巨,吃瓜者众,或许更重要的是,一些成见正在破壁。
IBM最近发布了一组名为"GraniteCode"的开源型,旨在帮助企业完成各种软件开发任务,并在基准测试中表现出色。这些模型不仅过了一些较大的开源竞争对手在编程任务中展现出了强大的性能。些模型的特点包括灵活的规模选择、基于广泛训练数据的逻辑推理能力和良好的性能未来,IBM还计划不断改进和更新这些模型,以满足不同编程任务的需求。
【新智元导读】最大开源模型,再次刷爆纪录!Snowflake的Arctic,以128位专家和4800亿参数,成为迄今最大的开源模型。是又大又稀疏,因此计算资源只用了不到Llama38B的一半,就达到了相同的性能指标。他本人的研究兴趣是机器学习与系统的交叉领域。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
HuggingFace最近发布了一款名为“HuggingChat”的iOS客户端应用,为用户带来了便捷。用户现在可以在手机上访问和使用HuggingFace平台上托管的各种开源模型。HuggingFace的这一创新举措,再次展示了其在语言模型领域的领先地位和对用户需求的关注。
在Create2024百度AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏分享了他对于AI技术发展趋势的独特见解。他明确指出,开源模型在当前的AI发展中正逐渐显露出其局限性,预示着其可能逐渐落后于时代。通过灵活应用文心4.0等基础模型,百度正致力于推动AI技术的更广泛应用,以满足不同场景下的多元化需求。
Picsart人工智能研究所、德克萨斯大学和SHI实验室的研究人员联合推出了StreamingT2V视频模型。通过文本就能直接生成2分钟、1分钟等不同时间,动作一致、连贯、没有卡顿的高质量视频。视频中的物体运动姿态丰富,场景和物体随时间的演变更加自然流畅,没有突兀的断层或冻结情况出现。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事DBRX抢占开源大模型王座编程、数学等领域超越GPT-3.5Claude3再次登顶!化学专业一骑绝尘,全面碾压GPT-4清明节前AI复活亲人成热门生意:几十元到上百元不等微软亚�
DBRX是一个由Databricks的Mosaic研究团队构建的通用大型语言模型,在标准基准测试中表现优于所有现有开源模型。它采用Mixture-of-Experts架构,使用362亿个参数,拥有出色的语言理解、编程、数学和逻辑推理能力。为了体验「DBRX」的强大功能,请访问AIbase网站查看更多介绍。
Grok-1,由xAI推出的314亿参数的专家混合模型,标志着在大型语言模型领域的一大步。该模型未经针对特定应用的微调,展现了Grok-1预训练阶段的原始基础模型检查点。为了深入了解「Grok-1」的能力,请访问官网查看更多详情。
HPT是HyperGAI研究团队推出的新型多模态大型语言模型框架。它具有高效且可扩展地训练大型多模态基础模型的能力,能够理解包括文本、图像、视频等多种输入模态。点击前往HPT官网体验入口需求人群:"适用于需要处理和理解多模态数据的研究人员和开发者,如进行视觉-语言任务、图像分析、图表解读等。
Grok-1是一个全球热门的大型语言模型,专家混合模型,包括了314亿参数的训练。该模型未经针对特定应用的微调,是Grok-1预训练阶段的原始基础模型检查点。了解更多关于Grok-1的信息,访问官网。
Chat-With-MLX是一个利用苹果MLX框架实现的高效、多语言支持的检索增强生成聊天界面。这个聊天界面可以轻松地自动集成任何HuggingFace和MLX兼容的开源模型,并支持通过URL与Doc、PDF、txt文件和YouTube视频进行交互聊天。希望Chat-With-MLX能够为用户带来更加愉快和高效的使用体验。
StarCoder2是一款专为代码生成和分析设计开源模型,拥有3B、7B和15B参数版本,具备16384令牌上下文窗口,在3-4万亿Tokens上进行训练。其支持的600多种编程语言使其成为多领域开发者的得力助手。StarCoder2的推出为开发者提供了一个全方位的代码支持工具,不仅能够提高开发效率在代码质量、学习与教育以及代码优化等方面发挥着积极作用。
Gemma-2B-IT是谷歌推出的2B参数指令调整模型,基于Gemini架构,专为提高数学、推理和代码处理能力设计。该模型在普通笔记本上即可运行,无需庞大的AI算力,适用于多种应用场景。赶快体验这款强大的AI写作指令调整工具吧!
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。要了解更多关于Gemma-2b的信息和开始使用这一全球热门的预训练模型,请访问Gemma-2b官方网站。
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
RMBGv1.4是一个新的背景分割开源模型,最近引起了广泛的关注。这个模型的效果非常出色,让人感觉与目前市面上顶尖产品removebg的效果不相上下。通过不断地优化和改进,RMBGv1.4有望成为行业内的翘楚,为用户提供更好的背景分割体验。
MGIE是一项由苹果开源的技术,利用多模态大型语言模型生成图像编辑指令,通过端到端训练,捕捉视觉想象力并执行图像处理操作,使图像编辑更加智能、直观。点击前往MGIE官网体验入口MGIE旨在满足以下需求人群:"用户可以通过自然语言直观地描述图像编辑需求,如改变颜色、调整大小等,无需复杂的描述或区域掩码,使图像编辑更加自由和轻松。欢迎访问MGIE官方网站,体验这一前沿的多模态大语言模型图像编辑工具。
这几天引发了AI社区大讨论的逼近GPT-4性能的泄漏模型「miqu」,的确是Mistral公司训练的一个旧模型的量化版。冲上各大榜单的这个开源模型引发开发者热议,开源AI或已进入关键时刻。靠着GPT-4Turbo和GPT-4V,OpenAI已经竭尽全力保持优势,但开源AI社区的迅速追赶,已经不容忽视了。
Allen人工智能研究机构在HuggingFace和GitHub上发布了首个开放语言模型OLMo,意在通过提供数据、代码、模型和评估工具的开放访问,促进人工智能领域的共同研究。这一举措的首批模型包括7B和1B规模的变体,覆盖不同架构和训练硬件,为未来更大规模、指令调整等模型的发布奠定基础。通过提供权重的开放访问,并鼓励合作,Allen致力于共同构建全球最卓越的开放语言模型,助力人工智能技术的进步。
Google与HuggingFace近日宣布战略合作,旨在推动开放AI和机器学习的发展。这一合作将集成HuggingFace的平台与GoogleCloud的基础设施,包括VertexAI,旨在使生成式AI更易于开发者使用。包括VertexAI和GKE部署选项,预计将在2024年上半年提供给HuggingFaceHub用户。