11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
ThinkPHP 是一个免费开源的,快速、简单的面向对象的 轻量级PHP开发框架,遵循Apache2开源协议发布,是为了敏捷WEB应用开发和简化企业应用开发而诞生的。
Meta突然官宣了Llama3,把开源模型的实力又往上提了一截。Llama3总共有三个版本——8B、70B和405B。正如BenHorowitz所说,「keepthemainthing,themainthing」,并努力专注于你的关键优先事项。
在周二于西雅图举办的北美开源峰会上,Linux 之父 Linus Torvalds 在凯悦酒店宴会厅的下午场主题演讲期间,回答了早期 Linux 贡献者、现 VMware 首席开源官与副总裁 Dirk Hohndel 长达半小时的提问。与此同时,作为 Linux 30 周年庆的一部分,吉祥物“Tux”也在观众的掌声中端上了一个生日蛋糕。作为一个众人拾柴火焰高的开源社区项目,Hohndel 也向所有 Linux 内核开发人员送去送上了 30 周年庆的祝福。以下参考 The News Stack ?
导语:市场上首个K8s上的大数据平台,开源了!智领云自主研发的首个完全基于Kubernetes的容器化大数据平台KubernetesDataPlatform开源啦!开发者只要准备好命令行工具,一键部署Hadoop,Hive,Spark,Kafka,Flink,MinIO...就可以创建以前要花几十万甚至几百万才可以买到的大数据平台无需再花大量的时间和经费去做重复的研发高度集成,单机即可体验大数据平台在高级安装模式下用户可在现有的K8s集群上集成运行大数据组件不用额外单独建设大数据集群项目地址:https://github.com/linktimecloud/kubernetes-data-platform辛辛苦苦研究出来的成果,为什么要开源?这波格局开大,老板有话说问题1:我们为什么要开源?我们的产品一直是基于大数据开源生态体系建设的。之前就一直有开源回馈社区的计划,但是因为之前Kubernetes对于大数据组件的支持还不够成熟,我们也一直在迭代与Kubernetes的适配。贡献参考开发者指南,了解如何开发及贡献KDP。
【新智元导读】最大开源模型,再次刷爆纪录!Snowflake的Arctic,以128位专家和4800亿参数,成为迄今最大的开源模型。是又大又稀疏,因此计算资源只用了不到Llama38B的一半,就达到了相同的性能指标。他本人的研究兴趣是机器学习与系统的交叉领域。
Open-Sora在开源社区悄悄更新了,现在单镜头支持长达16秒的视频生成,分辨率最高可达720p,并且可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的生成需求。我们期待Open-Sora社区带给我们的下一次惊喜。
4月24日,苹果开源了大语言模型OpenELM。这与微软刚开源的Phi-3Mini类似,是一款专门针对手机等移动设备的模型。这次苹果真的是很有诚意的开源,一开到底所有内容都贡献出来了,家大业大就是敢玩。
【新智元导读】前段时间,微软公布并开源了最新一代大模型WizardLM-2,号称性能堪比GPT-4。还未上线一天,模型权重和公告全被删除了,原因竟是......上周,微软空降了一个堪称GPT-4级别的开源模型WizardLM-2。开发者们还需要耐心等待,微软团队承诺,会在测试完成后重新上线。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
在最新的播客访谈中,小扎再次展现了他的「开源英雄」形象。如果花费100亿美元研发的模型对人类安全且有益,他将选择开源。他对于AI模型能力的未来提升持保留态度,认为短期内不太可能实现AGI,需要解决能源问题可能需要几十年的时间。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
扎克伯格:「有了Llama3,全世界就能拥有最智能的AI。」ChatGPT拉开了大模型竞赛的序幕,Meta似乎要后来居上了。也许只有OpenAI的GPT-5才能压下开源模型了。
周鸿祎发文称,并不是针对李厂长,自己一直是开源的信徒。周鸿祎辟谣称,自己说开源好,是13号在哈佛讲的,李彦宏说闭源好,是16号在北京讲的。安卓和iOS,Linux和Windows都是一个开源一个闭源,也都活得很好。
快科技4月20日消息,据深开鸿”公众号介绍,近日深开鸿CEO王成录做客深圳卫视,在节目中提到了国产系统和开源鸿蒙的多方面问题。王成录表示:我觉得做一个操作系统,如果跟现在的操作系统是一样的,就没有未来,不可能发展起来。他强调,开源鸿蒙操作系统是我们国家在基础软件领域里面唯一一次在架构上是创新的,它不是简单的国产替代,它是面向未来万物互联的。王成录称,在开源鸿蒙出现之前,所有操作系统都有一个局限,就是其DNA都是面向单设备的,比如手机一类,桌面电脑一类,平板一类。开源鸿蒙操作系统的第一个特点,就是跟以前所?
LLM界的「真·OpenAI」,又来整顿AI圈了!业内惊呼:首个开源GPT-4级的模型,终于来了!开源模型追上闭源模型的历史性一刻,或许就在眼前了?一石激起千层浪,Llama3才刚刚发布没几小时,就破纪录地登顶了HuggingFace排行榜。Meta共开源了Llama38B和Llama370B两款模型,分别有预训练和指令微调两个版本。MetaAI即将在Quest头显中推出。
开源大模型还是闭源大模型,究竟谁才是“版本答案”?围绕这个问题,360创始人周鸿祎和百度创始人李彦宏最近就来了一次隔空论战。先是在4月12日,有媒体曝光了李彦宏在百度内部的讲话。大模型到底是开源好、还是闭源更佳,目前在技术层面暂时还没有分出高下,但闭源或开源对于不同公司的商业利益却各有优劣。
今日,深开鸿”公众号发布深圳卫视对话深开鸿CEO王成录的采访,谈到开源鸿蒙最大创新、国产操作系统如何别人接受认可,以及国产系统、生态等话题。王成录表示,每讲到开源鸿蒙,我都特别兴奋,现在仍然是这样,我非常清楚它有巨大的潜力要去释放出来。2022年5月,王成录从华为离职,就职深开鸿并出任CEO。
Llama3来了!就在刚刚,Meta官网上新,官宣了Llama380亿和700亿参数版本。并且推出即为开源SOTA:Meta官方数据显示,Llama38B和70B版本在各自参数规模上超越一众对手。好在乌龙完了,官方也没拖着,关心开源大模型的小伙伴们,可以造作起来了。
蚂蚁集团和浙江大学合作开发了一个名为OneKE的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。他们将持续优化知识抽取的性能,并将相关技术应用到金融、医疗、政务等领域,推动可控生成技术的产业落地。
HuggingFace最近发布了一款名为“HuggingChat”的iOS客户端应用,为用户带来了便捷。用户现在可以在手机上访问和使用HuggingFace平台上托管的各种开源模型。HuggingFace的这一创新举措,再次展示了其在语言模型领域的领先地位和对用户需求的关注。
MetaLlama3是Meta公司最新推出的一款开源大型语言模型。它在多项行业基准测试中表现出色,性能卓越,可支持广泛的使用场景,包括改善推理能力等新功能。要了解更多信息,请访问MetaLlama3官方网站。
中国电信近期宣布开源其12B参数规模的巨型AI模型TeleChat-12B,此举标志着国内大模型技术发展的又一重要进展。与1月份发布的7B参数版本相比,TeleChat-12B在内容理解、性能表现和应用场景等方面实现了约30%的整体提升,特别是在多轮对话推理和安全相关领域的能力上,提高超过了40%。除了在传统行业中的应用,星辰大模型也在积极探索更多前沿领域的应用,例如在无人机智能编
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/昆仑万维「天工3.0」与「天工SkyMusic」音乐大模型开启公测昆仑万维推出的「天工3.0」和「天工SkyMusic」音乐大模型开启公测,彰显了其在AI领域的技术实力和创新能力。亮点提要:⭐3
通义千问昨晚开源了基于Qwen1.5的代码模型CodeQwen1.5,这是一个基于Qwen语言模型的代码专家模型。CodeQwen1.5拥有7B参数,采用GQA架构,经过约3Ttokens代码数据的预训练,支持92种编程语言,并且能够处理最长64K的上下文输入。开源社区对CodeQwen1.5的发布充满期待,希望它在代码助手、CodeAgent等方面为社区做出贡献,并在未来的代码智能建设中发挥重要作用,实现真正的AI程序员。
4月12日,由开放原子开源基金会牵头、OurBMC社区及理事长单位飞腾信息技术有限公司联合承办的OurBMC开源大赛总决赛在江苏宿迁圆满落幕。共有10支参赛队伍凭着初赛的优异表现进入决赛,在路演现场上演了一场精彩绝伦的对决。经过长达4个月的层层筛选和激烈角逐,最终,来自全国各地的10支优秀队伍脱颖出。
HuggingFace首次发布了其Idefics视觉语言模型,该模型于2023年首次亮相,采用了最初由DeepMind开发的技术。Idefics迎来了升级,新版本Idefics2拥有更小的参数规模、开放许可证以及改进的光学字符识别能力。Idefics2的发布是AI繁荣持续推出的许多多模态模型之一,包括Reka的新Core模型、xAI的Grok-1.5V和Google的Imagen2。
在Create2024百度AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏分享了他对于AI技术发展趋势的独特见解。他明确指出,开源模型在当前的AI发展中正逐渐显露出其局限性,预示着其可能逐渐落后于时代。通过灵活应用文心4.0等基础模型,百度正致力于推动AI技术的更广泛应用,以满足不同场景下的多元化需求。
香港中文大学终身教授贾佳亚团队最近推出了一款名为Mini-Gemini的多模态模型,该模型在多模态任务榜单上取得了显著成绩,其性能堪比GPT-4与DALLE3的结合。Mini-Gemini模型以其更精确的图像理解能力、更高质量的训练数据和更强的图像解析推理能力著称。这一成果不仅为开源社区带来了新的活力,也为多模态模型的发展和应用开辟了新的可能性。
PicsartAIResearch等团队联合发布了一款名为StreamingT2V的AI视频模型,该模型能够生成长达1200帧、时长达2分钟的视频,这在技术上超越了之前备受关注的Sora模型。StreamingT2V的发布不仅在视频长度上取得了突破它是一个免费开源的项目,可以无缝兼容SVD和animatediff等模型,这对于开源生态的发展具有重要意义。我们或许可以期待更多基于这类技术的创新应用,例如在电影制作、游戏�
面壁智能最新推出的新一代旗舰端侧模型——面壁MiniCPM2.0系列模型带来了一系列令人惊叹的性能和功能:1.MiniCPM-V2.0是端侧最强的多模态模型,具有强大的OCR能力,甚至部分能力比肩GeminiPro。它通过自研的高清图像解码技术,可以准确识别各种复杂的图像内容,包括街景和长图等。面壁智能刚刚完成了新一轮数亿元融资,计划继续面向AGI的高效大模型征程,欢迎优秀的人才加入他们的团队。