11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
HuggingFace推出了Cosmopediav0.1,这是最大的开放合成数据集,由Mixtral7b生成,包含超过3000万个样本,总共约250亿个标记tokens。数据集旨在通过映射来自网页数据集如RefinedWeb和RedPajama的信息来汇编全球知识,包括教科书、博客文章、故事和WikiHow文章等各种内容类型。其目标是通过量身定制提示风格和受众,最大程度地提高多样性,从显著减少重复内容。
全球著名大模型开源平台Huggingface发布了,HuggingChatAssistant测试版,可帮助用户轻松开发自定义类ChatGPT助手。自OpenAI发布自定义GPTs功能后,短短3个多月时间用户便开发了超300万个各类AI助手,其火爆程度可见一斑。给Huggingface的时间肯定会越来越好。
Qwen-VL是阿里云推出的通用型视觉语言模型,具有强大的视觉理解和多模态推理能力。这一创新产品支持零样本图像描述、视觉问答、文本理解、图像地标定位等任务,且在多个视觉基准测试中达到或超过当前最优水平。想要深入了解Qwen-VL及其强大功能,请访问Qwen-VL网站。
深度学习领域的新技术近日在HuggingFace的大模型排行榜中崭露头角,由UpstageAI提出的深度扩展方法在SOLAR10.7B大模型上取得了令人瞩目的成绩。该技术通过创新性地拼接两个7B羊驼,并采用DUS方法删除中间层次,使得新模型不仅超越了传统扩展方法如MoE能与基础大模型相同的基础设施高效集成。这一实际应用的反馈证明了该技术在处理实际数据时的优越性。
HuggingFace的diffusers轻量快速推理引擎已经在GitHub上发布。这个引擎通过一系列小幅改进,已经实现了显著提高推理速度的目标,宣称每秒可达到60步,较之前的23步有了显著提升。stable-fast准备为深度学习从业者的推理优化带来革命性的速度和效率。
AI教育解决方案领导者Riiid宣布,其最新生成式AI模型在知名机器学习模型平台HuggingFace上获得第一名。HuggingFace开放式大语言模型排名中,Riiid10月提交的最新模型“Sheep-duck-llama-2”获得了74.07分的高分,在全球500多个开源生成式AI模型中位居榜首。Riiid研究人员将继续开发新的模型架构,提升AI模型性能,并以实际数据验证学习影响,在国际AI会议上发表论文。
始智AI团队打造的中立开放AI开源社区平台正式上线,旨在打造中国版“HuggingFace”。该社区汇聚了清华/智谱chatglm2-6B、StableDiffusionV1.5、alphafold2、seamlessm4tlarge等模型,以及shareGPT、ultrachat、moss-sft等数据集等资源。始智AI表示,wisemodel.cn平台目前已经完成了基础的社区功能,注册完成之后,在“用户中心-我的组织”模块创建组织,可以邀请成员加入到组织内,之后组织内成员都�
要点:鸭嘴兽-70B使用优化过的数据集Open-Platypus训练,删除相似和重复问题。应用LoRA和PEFT对模型进行微调,重点优化非注意力模块。如果社会各界能坚持开放创新、合作共赢的理念,我们离强人工智能的到来就不会太远了。
HuggingFace推出了面向企业的代码助手SafeCoder,旨在通过安全的自托管双人编程解决方案来提高软件开发效率。SafeCoder声称是一套全面以安全为导向的商业产品,在模型训练和推理全过程代码始终保持在VPC内。HuggingFace通过SafeCoder为企业带来安全可控的代码生成解决方案。
HuggingFace最近发布了一款新颖的小型RustML框架|——candle,运行速度极快,支持多种强大模型。它提供了对GPU的支持,并且具有优化的CPU后端,可以在浏览器中运行。5.轻量级部署:Candle的目标是实现无服务器推理,生成轻量级二进制文件,可快速部署和执行。
【新智元导读】打「排位赛」的大模型们背后秘密武器曝光!UC伯克利重磅开源神级LLM推理系统——vLLM,利用PagedAttention,比HuggingFace/Transformers快24倍,GPU数量减半。过去2个月,来自UC伯克利的研究人员给大语言模型们安排了一个擂台——ChatbotArena。团队的大部分成员同时也是LMSYS成员。
HuggingFace发布了一项名为OpenMedical-LLM的新基准测试,旨在评估生成式人工智能模型在健康相关任务上的表现。该基准由HuggingFace与非营利组织OpenLifeScienceAI和爱丁堡大学自然语言处理小组的研究人员合作创建。测试生成式人工智能工具在实验室中的性能如何转化为医院和门诊诊所的实际情况,以及这些结果可能随时间变化的趋势,都是异常困难的。
HuggingFace最近发布了一款名为“HuggingChat”的iOS客户端应用,为用户带来了便捷。用户现在可以在手机上访问和使用HuggingFace平台上托管的各种开源模型。HuggingFace的这一创新举措,再次展示了其在语言模型领域的领先地位和对用户需求的关注。
HuggingFace首次发布了其Idefics视觉语言模型,该模型于2023年首次亮相,采用了最初由DeepMind开发的技术。Idefics迎来了升级,新版本Idefics2拥有更小的参数规模、开放许可证以及改进的光学字符识别能力。Idefics2的发布是AI繁荣持续推出的许多多模态模型之一,包括Reka的新Core模型、xAI的Grok-1.5V和Google的Imagen2。
HuggingFaceCourse是一个由HuggingFace官方提供的教育资源,旨在帮助用户学习和掌握HuggingFace平台的各种工具和API。对于对自然语言处理、机器学习和人工智能感兴趣的开发者和研究人员来说,这是一个非常有益的学习平台。这是提升您自然语言处理技能的绝佳途径。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
研究人员发现,大约有100个机器学习模型被上传到HuggingFace人工智能平台,可能使攻击者能够在用户机器上注入恶意代码。这一发现进一步强调了当攻击者操纵公开可用的AI模型用于恶意活动时所带来的不断增长的威胁。这种集体努力对于加固HuggingFace存储库、保护依赖这些资源的AI/ML工程师和组织的隐私和完整性至关重要。
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
HuggingFace近日推出了全新的聊天助手功能!不仅能够在2次点击内建立您的个人助理与OpenAIGPTs相似,您还可以自定义助手的名字、头像、描述,选择使用开放的LLM,并定义自定义系统消息和不同的消息启动器。HuggingFace技术主管PhilippSchmid在推文中表示:“终于不需要将自定义系统提示保存在单独的文档中了!”这一新功能为用户提供了更多自主权,使他们能够更灵活地定制和管理自�
Google与HuggingFace近日宣布战略合作,旨在推动开放AI和机器学习的发展。这一合作将集成HuggingFace的平台与GoogleCloud的基础设施,包括VertexAI,旨在使生成式AI更易于开发者使用。包括VertexAI和GKE部署选项,预计将在2024年上半年提供给HuggingFaceHub用户。
不知大家是否还记得2021年年末,HuggingFace宣布收购Gradio一事。两年过去了,Gradio是如何成长起来的,又是如何被收购的,GradioCEO兼联合创始人AbubakarAbid说出了一些内幕故事。10.别过度在意那些唱衰的人。
AI图像生成模型的一个最大问题就是速度:使用ChatGPT或StableDiffusion生成一张图像可能需要几分钟的时间。甚至Meta首席执行官马克・扎克伯格在去年的MetaConnect大会上也抱怨了图像生成速度。HuggingFace展示了使用8位Adam优化器和float16精度微调的模型,该过程使用了不到11GB的GPUVRAM。
2023年的LLM开源社区都发生了什么?来自HuggingFace的研究员带你回顾并重新认识开源LLM2023年的大语言模型,让几乎所有人都燃起了热情。现在大多数人都知道LLM是什么,以及可以做什么。常用的方法包括bitsandbytes、GPTQ和AWQ。
HuggingFace的首席执行官ClémentDelangue对大型科技公司像商业专利一样保留机器学习代码的做法持反对态度。他正在努力构建一个世界,在这个世界中,每个开发者或初创公司都可以自由访问人工智能模型,并有效地帮助AI实现开源。随着AI的快速发展,HuggingFace正在将开发者转向类似于社区的努力——推动系统共享、协作和反馈的方式。
开源大模型社区HuggingFace公布了最新的开源大模型排行榜,通义千问在预训练模型类别中脱颖出,占据榜首位置。HuggingFace开源大模型排行榜涵盖了全球上百个顶尖的开源大模型,并从阅读理解、逻辑推理、数学计算、事实问答等六个维度进行了全面评估。阿里云开源通义千问720亿参数模型。
在最新的人工智能实践中,HuggingFace推出了经过高度优化的Zephyr-7B迷你语言模型,该模型基于欧洲初创公司MistralAI的开源模型Mistral7B。通过采用蒸馏监督微调方法,该模型得以精细调整,该方法利用较大的“教师”模型的输出来训练较小的“学生”模型。这标志着HuggingFace在迷你语言模型领域的技术进步,为未来的人工智能发展奠定了坚实基础。
2024年,AI行业将会进化成什么样?OpenAI主席Greg Brockman曾经在去年最后一天预测:2023年会让2022年看起来像AI发展还没有苏醒一样。
HuggingFace作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。Benioff称,「我们非常渴望确保Salesforce成为第一大人工智能CRM。
Meta与HuggingFace以及Scaleway合作,共同启动了“AIStartupProgram”,该计划旨在通过开放协作的方式促进法国创业生态系统中先进人工智能模型的采纳。这一计划于11月8日在巴黎STATIONF启动,是世界上最大的初创公司校园。”初创公司可在2023年12月1日前申请加入该计划。
HuggingFace研究人员最近解决了在资源受限环境中部署大型预训练语音识别模型的问题。他们通过创建一个庞大的开源数据集,使用伪标记的方法,提炼出了Whisper模型的较小版本,称为Distil-Whisper。尽管WER稍高,但distil-medium.en模型提供了更直接的推理和实质性的模型压缩。