11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
aiXcoder-7B是一个拥有70亿参数的代码大模型,专为企业级软件开发设计。其性能超越340亿参数的Codellama模型,在真实开发场景下表现卓越。提升您的软件开发效率,优化代码质量,尽在aiXcoder-7B。
大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。业界已经出现了一批引人瞩目的代码大模型,比如OpenAI的CodeX、谷歌DeepMind的AlphaCode、HuggingFace的StarCoder,帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升效率。aiXcoder也因其极具前瞻性的探索方向、踏踏实实的落地实践,不断受到资本市场的追捧,高瓴、清流、彬复等极具行业引领性的基金
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在当今科技快速发展的时代,AI代码生成技术正逐渐成为软件开发领域的热门话题。尽管AI在解决编程问题方面表现出色,但在真实的企业开发环境中,其应用似乎还不够理想。随着代码大模型能力的日益增强,我们有理由相信,aiXcoder-7B将为程序员们带来更多的创新潜能,推动编程自动化的浪潮向前发展。
在代码生成领域,UIUC和清华合作发布了Magicoder,这一全新的大型语言模型仅使用了7B参数,却能与顶级模型媲美,并以全面开源的方式分享了其代码、权重和数据。Magicoder的关键在于采用了OSS-INSTRUCT方法,该方法通过从开源代码中获取灵感,生成多样、真实和可控的编码指令数据,强调了真实性对于指令调整的重要性。通过开源所有数据和代码细节,Magicoder的推出或许只是众多先进代码模型中的一个,展望未来,我们可以期待更多的创新和进步。
北大等机构宣布开源CodeShell-7B代码基座大模型和CodeShell-Chat代码助手,加上便捷的IDE插件,为编程提供强大支持。CodeShell-7B采用5000亿Tokens的冷启动训练,在评估基准上表现卓越,超越了竞争对手。CodeShell的开源项目将有望改善编程体验,让代码编写更加高效和便捷。
【新智元导读】继CodeLlama开源之后,北大等机构正式开源了性能更强的代码基座大模型CodeShell-7B和代码助手CodeShell-Chat。团队还把方便易用的IDE插件也开源了!今天,北京大学软件工程国家工程研究中心知识计算实验室联合四川天府银行AI实验室,正式开源70亿参数的代码大模型CodeShell,成为同等规模最强代码基座。CodeShell-UCG评估基准既可以用于评估模型的编程能力,也可以用于
UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。这款模型成功超越了CodeLlama-70B-Instruct,登上了代码生成性能榜单之巅。该模型的开源数据集和训练流程为未来该领域的研究和发展奠定了坚实的基础。
【新智元导读】全新代码大模型Magicoder,不到7B参数,就能在代码生成领域与顶级代码模型不相上下。开源「代码大模型」来了!UIUC清华团队的研究人员发布了Magicoder,不到7B参数,就能在代码生成领域与顶级代码模型不相上下。
HuggingFace技术负责人PhilippSchmid表示:“代码自动补全工具,如GitHubCopilot,已被超过一百万开发者使用,帮助他们的编码速度提高了55%。看到像Magicoder和OSS-INSTRUCT这样的开源创新超越了OpenAI的GPT-3.5和GoogleDeepMind的GeminiUltra,真是令人振奋。张令明老师现任UIUC计算机系副教授,主要从事软件工程、机器学习、代码大模型的相关研究,更多详细信息请见张老师的个人主页:https://lingming.cs.illinois.edu/。
PyTorch团队在其博客中分享了一篇关于如何加速大型生成式AI模型推理的文章。该团队以Llama7B为例,展示了如何通过一系列优化技术将推理速度提升10倍,达到了244.7tok/s。PyTorch团队通过一系列创新性的优化手段,不仅成功提升了大模型的推理速度以不到1000行的纯原生PyTorch代码展示了这一技术的实现过程。
苹果最新杀入开源大模型战场比其他公司更开放。推出7B模型,不仅效果与Llama38B相当一次性开源了全部训练过程和资源。就像他提供的这张图,以GPT-4omini为代表的小模型整体比右侧价格更低。
把AlphaGo的核心算法用在大模型上,“高考”成绩直接提升了20多分。在MATH数据集上,甚至让7B模型得分超过了GPT-4。通讯作者KaiFan本硕毕业于北京大学,2017年从杜克大学博士毕业,2018年加入阿里巴巴达摩院。
在今日上午的MediaTek天玑开发者大会MDDC2024上,备受瞩目的天玑9300旗舰处理器终于揭开了神秘的面纱。这款处理器的CPU架构精心布局,融合了1个高达3.40GHz的Cortex-X4核心,3个2.85GHz的核心,以及4个2.00GHz的核心,确保了在处理各种复杂任务时都能游刃有余。iQOONeo9SPro手机也宣布将在本月发布,成为首批搭载联发科天玑9300芯片的手机之一,预计将在市场上掀起一股新的热潮。
360公司自主研发的7B参数大模型——360智脑,现已正式上线开源社区,并提供了基础模型以及4K、32K、360K三种不同文本长度的版本。这一大模型在支持文本长度方面表现出色,最长可处理360K长文本,相当于约50万字的输入内容。在中英文360K大海捞针效果测试中,也取得了超过98%的高分。
腾讯云AI绘画推出SaaS版本,成为国内首批通过中国信通院评估的AIGC绘画平台,提供API和在线工具,支持智能图生成、文生成图等多种能力。AI生成视频工具AssistiveVideo输入描述即可生成视频AssistiveVideo是一款人工智能生成视频工具,用户通过输入描述或上传图片即可轻松生成高质量4秒视频,为各领域带来便捷的视频制作体验。该模型在T3Bench数据集上的测试表现出色,展现了在�
深度学习领域的新技术近日在HuggingFace的大模型排行榜中崭露头角,由UpstageAI提出的深度扩展方法在SOLAR10.7B大模型上取得了令人瞩目的成绩。该技术通过创新性地拼接两个7B羊驼,并采用DUS方法删除中间层次,使得新模型不仅超越了传统扩展方法如MoE能与基础大模型相同的基础设施高效集成。这一实际应用的反馈证明了该技术在处理实际数据时的优越性。
“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由MistralAI发布。最新的梗图:磁力链接就是新的arXiv。
深度求索发布了一个67B的大模型,名为DeepSeekLLM67B。这个模型完全开源,可以通过访问chat.deepseek.com来使用。在开放域推理的测试中,DeepSeekLLM67B展现出了较好的表现。
加州大学伯克利分校的研究人员推出了一款名为Starling-7B的开放式大型语言模型,采用了一种称为ReinforcementLearningfromAIFeedback的创新训练方法。RLAIF的独特之处在于利用其他人工智能模型的反馈来提升性能,相较于传统的人工反馈,这种方法更具有成本效益、速度快、透明度高、可扩展性强的优势。感兴趣的人还可以在聊天机器人领域测试该模型。
vivoAI正式开源了BlueLM-7B基础模型和7B对话模型,同时开源了支持32K的长文本基础模型和对话模型。具体特性如下:vivo表示,后续还将开源13B模型和支持多模态的7B-vl模型。蓝心大模型包含十亿、百亿、千亿等不同参数规模五款大模型,vivo自研操作系统OriginOS4将首发搭载,vivo称其大模型矩阵将全面开源。
今天,2023年vivo开发者大会如期在深圳举行,在发布会上,vivo正式发布了旗下的自研通用AI大模型矩阵蓝心大模型。此次发布的蓝心大模型共包含5款,包括10亿蓝心大模型1B、70亿蓝心大模型7B、700亿蓝心大模型70B、1300亿蓝心大模型130B和1750亿蓝心大模型175B,全面覆盖各种使用场景。根据官方介绍,70亿蓝心大模型7B主要是面向手机打造的端云两用模型,在语言理解、文本创作等场景下表现都非常优秀。
vivo在今天举行的开发者大会上发布了自主研发的AI蓝心大模型,同时还推出了新一代的操作系统OriginOS4。vivo自研的AI蓝心大模型是vivo在AI领域的重要布局之一,该模型具备高效、智能、安全等特性,可以支持多种应用场景。开源大模型的推出将有助于推动AI技术的普及和发展,鼓励更多的企业和开发者使用和改进vivo的AI技术,共同推动AI技术的发展和应用。
据OpenCompass评测平台最新数据,OPPO大模型AndesGPT-7B以62.2的综合分位列中文数据集综合榜单中第五,在同为70亿规模参数下的大模型中排名第一。值得注意的是,OpenCompass提供的完整开源可复现的评测框架,可同时对大模型的多项能力进行评测,同时也意味着AndesGPT-7B是国内终端厂商首个已开源的大模型,将持续为中文大模型开源社区做出贡献。11月16日,AndesGPT会在即将发布的ColorOS14系统中被首次应用,AndesGPT更多元化的应用场景或将在之后揭晓。
元象宣布开源70亿参数通用大模型XVERSE-7B底座与对话版,这是一款全开源、免费可商用的模型。相比之前的XVERSE-13B,7B版本更小巧,可以在单张消费级显卡上运行,并且推理量化后最低只需6GB显存,大大降低了开发门槛和推理成本。●XVERSE-7B-Chat是底座模型经SFT指令精调后的中英文对话模型,大幅提升了理解和生成内容的准确度,也更符合人类的认知偏好。
阿里开源大模型,又上新了~继通义千问-7B之后,阿里云又推出了大规模视觉语言模型Qwen-VL,并且一上线就直接开源。Qwen-VL是基于通义千问-7B打造的多模态大模型,支持图像、文本、检测框等多种输入,并且在文本之外,也支持检测框的输出。如果你对Qwen-VL感兴趣,现在在魔搭社区和huggingface上都有demo可以直接试玩,链接文末奉上~Qwen-VL支持研究人员和开发者进行二次开发,也允许商用,不过需要注意的是,商用的话需要先填写问卷申请。
vivo的大模型云端方案也已经出现在C-Eval排行榜上。该排行榜是一个全面的中文基础模型评估套件,包含13948个多项选择题,涵盖人文、社科、理工等多个学科和不同难度级别。vivo在大模型领域的发力将为智能手机市场带来新的竞争格局,同时也将推动AI技术的进一步发展,为Jovi助手带来全新的体验。
今天,王小川组建的百川智能公司正式发布了70亿参数的中英文开源大模型——baichuan-7B。baichuan-7B大模型已在HuggingFace、Github和ModelScope等平台上发布。baichuan-7B模型,不仅能为中国的AGI事业添砖加瓦,也为世界大模型开源社区贡献了新的力量。
【新智元导读】小模型时代来了?OpenAI带着GPT-4omini首次入局小模型战场,MistralAI、HuggingFace本周接连发布了小模型。苹果也发布了70亿参数小模型DCLM,性能碾压Mistral-7B。毕竟通往终极AGI/ASI,参数规模的扩大和智能的增长成正比。
只需激活60%的参数,就能实现与全激活稠密模型相当的性能。微软亚洲研究院的一项新研究,实现了模型的完全稀疏激活,让推理成本大幅下降。在极大规模下,稀疏激活模型有可能达到与密集模型相当的性能,为设计和训练大规模稀疏激活模型提供了一个有用的参考。