腾讯云618狂欢节特惠来袭!现在购买3年轻量云服务器,配置2核2G4M,只需396元!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
在莱克斯·弗里德曼的播客中,马克·扎克伯格透露Llama2的成功远超预期。尽管关于Llama3的具体计划还未公布,但扎克伯格表示新的模型版本正在训练中,同时明确表示Llama3的推出还没那么近。据说Llama3也将免费开源。
IDEA研究院封神榜团队最近开源了最新的代码大模型Ziya-Coding-34B-v1.0,该模型在HumanEvalPass@1的评测上取得了75.5的好成绩,超过了GPT-4的得分。此次开源的Ziya-Coding-34B-v1.0,基于CodeLLaMA34B的预训练模型,经过了两个阶段的有监督精调,支持多种与代码相关的任务,包括代码生成、代码解释、代码纠错以及单元测试的生成等。
9月26日,由Linux基金会、云原生计算基金会主办的KubeConCloudNativeCon0penSourceSummitChina2023于上海跨国采购会展中心隆重开幕。9月27日,作为全球云原生领先企业,同时也是全球开源生态建设的先锋,华为首席开源联络官、CNCF基金会董事任旭东代表华为在大会发表了“开源,跃升数字生产力”的主题演讲,他认为伴随着IT产业的发展历程,软件开发模式,从自由软件、开源软件,走到了群智模式的开源生态,这个新范式。“源生无限,同行致远”,华为非常愿意与开源社区、开发者、行业伙伴和客户一起,结合AI时代的具体问题及挑战,通过开源创新,积极探索和实践,同大家一起共建公平、公开、健康、共赢的智能世界新生态。
智源研究院发布了FlagPerfv1.0,这是一个开源开放的AI硬件评测引擎。FlagPerf的评测指标体系包括功能正确性指标、性能指标、资源使用指标和生态适配指标。所有测试代码都已开源,测试过程和数据可复现。
蚂蚁集团代码大模型CodeFuse-CodeLlama-34B4bits量化版本发布。CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通过QLoRA对基座模型CodeLlama-34b-Python进行多代码任务微调得到的代码大模型,模型输入长度为4K。CodeFuse是蚂蚁自研的代码生成专属大模型,根据开发者的输入提供智能建议和实时支持,帮助开发者自动生成代码、自动增加注释,自动生成测试用例,修复和优化代码等,以提升研发效率。
AI组织LAION和领先的AI开发者在给欧盟的公开信中建议,AI领域的监管努力应该鼓励使用开源AI模型,以支持透明度、安全性和创新,特别是中小企业。LAION认为,开源AI模型具有更大的安全性、问责制、可复制性和鲁棒性可以促进创新、提高环境友好性等。LAION呼吁欧盟监管努力应鼓励开源AI模型的应用。
元象宣布开源70亿参数通用大模型XVERSE-7B底座与对话版,这是一款全开源、免费可商用的模型。相比之前的XVERSE-13B,7B版本更小巧,可以在单张消费级显卡上运行,并且推理量化后最低只需6GB显存,大大降低了开发门槛和推理成本。●XVERSE-7B-Chat是底座模型经SFT指令精调后的中英文对话模型,大幅提升了理解和生成内容的准确度,也更符合人类的认知偏好。
9月22日,度小满宣布“轩辕70B”金融大模型开源,所有用户均可自由下载和试用,并公布了“轩辕70B”在C-Eval、CMMLU两大知名大语言模型评测基准的成绩。在C-Eval榜单上,XuanYuan-70B的总成绩达到71.9分;在CMMLU榜单中,以71.05分的高分位居榜首,在两大榜单上的所有开源模型中排名居首,也是国内首个同时在两大榜单排名居首的金融大模型。本次发布的新版大模型相较于上一个版本能力全面提升:在增量预训练和指令微调阶段,加入了度小满业务场景中的海量金融数据,对金融问题回复更专业,金融知识理解能力提升明显;同时在预训练阶段,"轩辕70B”的模型上下文长度扩充到8k,能够处理更长的金融报告、研究和分析。
Haystack是一个端到端的自然语言处理框架,它能够帮助您构建由大型语言模型、Transformer模型、向量搜索等驱动的应用程序。无论您想要进行问题回答、答案生成、语义文档搜索是构建能够进行复杂决策和查询解决的工具,Haystack都可以帮助您使用最先进的NLP模型构建解决您的用例的端到端NLP应用程序。Haystack支持多种文档存储,包括ElasticSearch、Opensearch、Weaviate、Pinecone、FAISS等。
EmoPP-Demo是一款基于情感感知的韵律短语生成模型,旨在提高端到端文本转语音的自然度和可懂度。自然语音中存在着语言和情感韵律。EmoPP-Demo是情感感知韵律短语生成的先进工具,可用于提高文本到语音合成系统的情感表达能力,为语音交互和语音助手等应用提供更加自然和生动的语音输出。
聆心智能发布了一个名为CharacterGLM的模型,用于定制化角色进行对话交互。这个模型基于ChatGLM模型,有6B、12B和66B三个不同参数量的版本。他们还提供了一些交互样例,展示了不同类别角色的对话交互效果。
最强中文版LLaMA-2来了!15小时训练,仅需数千元算力,性能碾压同级中文汉化模型,开源可商用。LLaMA-2相较于LLaMA-1,引入了更多且高质量的语料,实现了显著的性能提升,全面允许商用,进一步激发了开源社区的繁荣,拓展了大型模型的应用想象空间。ColossalAI云平台现已开启公测,注册即可获得代金券,欢迎参与并提出反馈。
阿里云通义千问140亿参数模型Qwen-14B及其对话模型Qwen-14B-Chat正式开源,免费可商用。Qwen-14B在多个权威评测中超越同等规模模型,部分指标甚至接近Llama2-70B。过去两个月内,魔搭社区的模型下载量从4500万飙升到8500万,增幅接近100%。
DreamLLM是一款强大的多模态大型语言模型学习框架,它首次实现了多模态理解和创作之间常常被忽视的协同效应。DreamLLM基于两个基本原则运作。图像生成:DreamLLM通过特殊的梦想令牌预测图像生成位置,生成与文本描述相关的图像,为用户提供强大的图像生成能力。
MithrilSecurity最近推出了BlindChat,这是一个开源项目,旨在开发全新的隐私对话人工智能,完全在浏览器内运行,不需要第三方访问。这一举措是对传统AI解决方案的一种革命性的替代品,因为这些解决方案通常要求用户与AI服务提供商共享数据以获取AI模型的使用权限,从可能导致用户的数据被窃取。MithrilSecurity计划将更多功能集成到项目中,以进一步提高性能。
9月25日,阿里云开源通义千问140亿参数模型Qwen-14B及其对话模型Qwen-14B-Chat,免费可商用。Qwen-14B在多个权威评测中超越同等规模模型,部分指标甚至接近Llama2-70B。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用Qwen-14B和Qwen-14B-Chat。
度小满推出全新的金融行业大模型“轩辕70B”,标志着金融大模型迈向新的高度。该模型在通用能力和专业金融领域表现出色,名列各项开源模型评测榜单前列,特别在中文任务评测和金融领域十大类权威考试方面提供专业支持。5.对话能力:XuanYuan-70B-Chat模型经过通用和金融指令微调,具备出色的对话生成能力,可以用于生成金融领域的文本摘要以及回答各种问题。
训练大模型,几千块就能实现了!现在,15小时、几千块钱、85亿token数据,即可训出中文LLaMA2。综合性能达到开源社区同规模从头预训练SOTA模型水平。更多应用场景、不同领域、不同版本的模型、企业私有化平台部署等正不断迭代。
大型语言模型如GPT-4因其生成各种用户查询的文本响应的能力变得极为流行。尽管它们具有强大的功能,但在有效传达复杂信息方面存在一些限制。Graphologue代表了使LLM互动更直观和有效的重大进步。
「AIGC开放社区」为大家介绍了融资1亿美元的生成式AI平台Writer。该企业能在短短3年时间获得1.26亿美元总融资成为ChatGPT的主要竞争对手之一,与其精湛的技术密不可分,同时充分证明其模型有成功的应用案例并获得资本、用户的认可。Palmyra非常值得那些希望将大语言模型实现商业化的开发者们,研究其模型架构和功能借鉴其成功经验。
9月21日,中国信息通信研究院、中国通信标准化协会联合主办的2023OSCAR开源产业大会在京召开,会上发布了2023可信开源最新评估结果。腾讯Xcheck-SCA开源威胁管控平台通过了可信开源治理工具评估。依托自身实践自研的技术工具和手段,腾讯安全将持续打磨安全产品,助力开源软件可信安全,实现从源头降低安全风险,帮助行业和企业践行“安全左移”理念。
快科技9月22日消息,任正非在与南开大学新闻与传播学院院长、科技日报原总编辑刘亚东的谈话中提到,国内现在有30多个操作系统都是基于鸿蒙开源构建的,涵盖了行业终端、手机平板、家庭终端,加起来大概已经有6亿用户,世界排名第三。鸿蒙刚升级到4.0,升级以后,外面也会跟着升级。有个开源社区,不是华为一家在做,我们做的是底座和内核。我们是做黑土地”,上�
OpenPipe是一个创新的AI工具,旨在将昂贵的语言模型的强大能力与更便宜的模型相结合,以满足用户的精确需求。它的核心思想是利用强大但昂贵的大型语言模型进行微调,生成适合特定需求的廉价模型。多种训练数据导出格式:支持导出多种训练数据格式,包括Alpaca和ChatGPT,同时具备去重功能,使数据准备更加高效。
AgentVerse是一个旨在促进多个大型语言模型之间协作的多智能体框架。虽然单个LLM在各种任务上表现出色,但面对复杂任务或需要提高效率的情况,多个智能体之间的协作变得至关重要。这一框架的发展对于推动自然语言处理和人工智能领域的研究和应用具有重要意义。
【新智元导读】国产模型开源纪录,又被刷新了!上海AI实验室等机构开源的InternLM-20B,竟然能和Llama2-70B打个平手?就在刚刚,国内开源模型参数量纪录,又被刷新了!9月20日,上海人工智能实验室与商汤科技联合香港中文大学和复旦大学,正式开源了200亿参数的InternLM-20B模型。项目地址:https://github.com/InternLM/InternLM魔搭社区:https://modelscope.cn/organization/Shanghai_AI_Laboratory这次的200亿参数版书生·浦语大模型,可以说是「加量不加价」,参数量还不到三分之一,性能却可以剑挑当今开源模型的标杆——Llama2-70B。上海AI实验室的「雪中送炭」,必然会让大模型在落地领域发挥出巨大的价值。
随着数字化转型深入推进和数据量的爆炸式增长,行业应用对数据库的需求变化推动数据库技术加速创新。数据库作为数字经济基础底座,连接上层应用和底层基础资源,在数字经济时代展现出巨大的价值和潜能。四、国内开源数据库产业展望最后,针对我国MySQL技术路线开源数据库产业发展,报告进行以下展望:1、开源数据库发展应符合开源生态建设及产业引领要求,积极参与完善开源产业治理;2、加强相关方对开源协议认知,合法合规利用开源协议;3、利用国内MySQL现有技术生态,结合产业需求,加强独立演进开源分支的能力;4、大力推进开源数据库技术规范化、智能化发展。
上海交大生成式人工智能研究组的阿贝尔模型在数学推理领域取得了重大突破,打破了美国AI公司在这一领域的霸榜局面,成为国内开源模型排行榜首。阿贝尔项目的成功背后是有监督精调方法的巧妙运用,以及精心策划的训练数据。尽管仍然存在一些挑战和局限性,但这一成就为国内的人工智能研究团队赢得了国际认可,为AI领域的发展注入了新的活力。
国产新标杆:免费可商用的200亿参数大模型,来了!书生·浦语大模型20B版本正式发布,一举刷新国内新一代大模型开源纪录。它由上海人工智能实验室与商汤科技联合香港中文大学和复旦大学共同推出。正如林达华所说:这或许才是当下大模型趋势里,大家最应该“卷”的方向。
商汤科技与上海人工智能实验室联合推出了书生・浦语大模型的200亿参数版本InternLM-20B,并在阿里云魔搭社区上进行了开源发布。InternLM-20B模型性能超过了开源模型标杆Llama2-70B,具备更强的综合能力和应用便捷性。全链条工具链包括数据、预训练、微调、部署和评测等环节。
DeepMind发布AlphaMissense模型,能预测基因错义突变是否致病,提升近千倍于人类专家,成功分类7100万突变中89%的致病性,加强遗传病诊断和新致病基因发现。论文地址:https://www.science.org/doi/10.1126/science.adg7492百度发布医疗大模型“灵医大模型”百度发布国内首个“产业级”医疗大模型——灵医大模型,旨在推�