11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
4月12日,由开放原子开源基金会牵头、OurBMC社区及理事长单位飞腾信息技术有限公司联合承办的OurBMC开源大赛总决赛在江苏宿迁圆满落幕。共有10支参赛队伍凭着初赛的优异表现进入决赛,在路演现场上演了一场精彩绝伦的对决。经过长达4个月的层层筛选和激烈角逐,最终,来自全国各地的10支优秀队伍脱颖出。
软件定义世界,开源共筑未来!为进一步推广开源文化,繁荣开源生态,由开放原子开源基金会牵头承办的2023开源和信息消费大赛——开放原子开源大赛于2023年8月29日拉开帷幕。现由大赛出资5000万元,诚邀您免费出题!这是一个高层级的全球大赛!大赛由开放原子开源基金会、央视网、江苏省工业和信息化厅、无锡市人民政府、江苏软件产业人才发展基金会、苏州工业园区、无�
摘要: 报名时间:2020年7—2021年1月 || 主办单位:中国科学院计算机网络信息中心;协办单位:小米集团|| 以“人才创新、技术开源”为主题,以“发展中国科学软件生态”为目的,汇聚各种优秀国产开源软件。1.活动目的我国科研领域,长期以来依赖国外商业软件,对科研信息化的发展带来较大的阻碍。开源软件的开放性特点非常符合科研领域的软件需求,对于我国的许多高校和科研机构,是一种高性价比的解决方案。本次活动依托“中国科技云”科学?
12 月 4 日,第五届中国科研信息化发展研讨会在北京召开。本届会议由中国科学院联合国家互联网信息办公室、教育部、科学技术部、中国科协、中国社会科学院、中国农业科学院等单位共同主办,中国科学院办公厅与中国科学院计算机网络信息中心承办。国家互联网信息办公室副主任杨小伟,中国科学技术协会副主席孟庆海,中国科学院副院长李树深等参加活动。首届中国开源科学软件创意大赛颁奖仪式在会上举行。本次大赛以“人才创新、技?
现代社会是科技进化的结果,科技已成为世界上最伟大的、能够改变一切的力量,很多文化方面的变革最初都源于技术的发展,如今,“开源文化”在互联网早已枝繁叶茂,更赋予了人类协作方式崭新的可能性。在我国科学计算科研领域,对国外商业软件的长期依赖,在某种程度上制约着我国科研信息化的发展。对于我国高校和科研机构来说,极具开放性的开源科学软件创意大赛正是一种高效的解决方案。 日前,由“中国科技云”科学软件开源社区
100+天激烈赛程,40+国内顶级技术豪门对决,历经研发内部测试、正式环境测试和易观数据正式环境跑benchmark三大阶段。 10 月 28 日,易观OLAP算法大赛优胜名单出炉!40+技术门派比武易观OLAP大赛可谓国内算法界“武林大会”,英雄帖一发出就引起互联网各大技术门派积极响应。吸引来自美团点评、阿里云、小米、链家、搜狗、科大讯飞、联通、原速数据、乐见、AggreData、GBase 、Kyligence、PingCAP、LinkDoc、iflytek、hulu、上海睿
根据IDC数据显示,中国有近200万开发者,身为一个程序员,我们生活在一个 IT 系统越发复杂且多变化的时代。有时候执行一个简单的开源项目,开发一个基础功能都需要精准定义并耗费大量时间专注任务。随着云计算的兴起,
作为一款运行在 Zope 应用服务器上的开源CMS,Plone 赢得2000美元奖金。第二,第三名分别为 dotCMS 与 DotNetNuke ,分别获得500美元奖金。
Packt Publishing 刚刚宣布2008届最佳开源CMS大赛各奖项下的决赛名单。去年,Drupal 是综合大奖得主,将06年冠军 Joomla! 推到第二位。今年 Drupal 和 Joomla 均入选决赛名单,分属不同奖项。Packt 将于2008年10月31日开始公布最终获奖名单。
Animegf是一个本地开源工具,为用户提供了与虚拟角色互动的平台,类似于CharacterAI。Animegf提供了一个用户友好的界面,允许用户在桌面上与虚拟角色互动。简易安装:用户只需下载安装包并运行安装程序,无需复杂配置即可开始使用。
Harmonai,由StabilityAILab支持的开源项目,致力于让音乐制作变得更加容易和有趣。该模型利用先进的AI算法,可以生成定制的无限音乐库,为用户提供高品质、创新性的音乐资源,让用户可以轻松地创作多元化的音乐作品。声音设计:为视频游戏、电影或多媒体项目设计独特的音效。
DouyinVue是一个开源的移动短视频项目,旨在模仿流行的TikTok应用。该项目利用Vue3、Vite5和Pinia等前端技术,提供了与原生应用相媲美的流畅用户体验,是一个展示Vue在移动开发中应用的绝佳案例。它提供了一个基础框架,开发者可以在此基础上添加新功能或进行个性化定制。
国内著名大模型开源公司潞晨科技,对其开源文生视频模型Open-Sora进行了大更新,现在可生成16秒,分辨率高达720P的视频。同时具备可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的多模态功能。感兴趣的小伙伴们现在可以利用这些资源,结合技术报告和代码高效地处理和优化自己的数据集。
潞晨科技旗下文生视频模型开源项目Open-Sora近日进行了重大更新,新版本可以生成16秒时长、720P高清视频。在本次更新中,团队对1.0版本的STDiT架构进行了关键性改进,提高了模型的训练稳定性和整体性能。Open-Sora的更新版本在模型稳定性、训练效率和功能扩展等方面都取得了显著进展,为用户提供了更加强大和多样化的视频生成能力。
InternVL家族的开源套件提供了一种商用多模态模型的可行开源替代方案。最新发布的InternVL-Chat-V1.5模型在多个基准测试上取得了接近GPT-4V和GeminiPro的性能,这使得InternVL家族成为了当前最接近GPT-4V表现的可商用开源模型之一。InternVL家族的开源套件为多模态模型领域的发展注入了新的活力。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、清华团队发布视频大模型Vidu可生成16秒、1080P视频清华大学与生数科技在中关村论坛未来人工智能先锋论坛上发布了中国首个长时长、高一致性、高动态性视频大模型Vidu,标志�
元象公司发布了首个多模态大型模型XVERSE-V,并将其开源。这一模型支持任意宽高比的图像输入,并在多个权威评测中取得了优异的成绩。除了图像识别,XVERSE-V还在多个实际应用场景中表现突出,包括信息图理解、视障场景处理、文本生成、教育解题等。
阿里巴巴宣布开源其最新的Qwen1.5系列语言模型-Qwen1.5-110B。这是Qwen1.5系列中规模最大的模型,也是该系列中首个拥有超过1000亿参数的模型。它在与最近发布的SOTA模型Llama-3-70B的性能上表现出色,并且明显优于72B模型。
Perplexica是一个开源的AI驱动搜索引擎,提供多种搜索模式,旨在为用户提供更精准、更智能的搜索体验。它受到PerplexityAI的启发,不仅能够搜索网络能理解并回答用户的问题。Perplexica致力于成为一个全面、高效的搜索解决方案,满足用户对各种类型信息的需求,同时保护用户隐私并提供最新的搜索结果。
通义千问团队开源的首个千亿参数模型,Qwen1.5-110B。该模型在基础能力和Chat评估中表现出色,与其他同类模型相比有显著提升。团队将继续探索模型规模提升和扩展预训练数据规模两种方法带来的优势。
导语:市场上首个K8s上的大数据平台,开源了!智领云自主研发的首个完全基于Kubernetes的容器化大数据平台KubernetesDataPlatform开源啦!开发者只要准备好命令行工具,一键部署Hadoop,Hive,Spark,Kafka,Flink,MinIO...就可以创建以前要花几十万甚至几百万才可以买到的大数据平台无需再花大量的时间和经费去做重复的研发高度集成,单机即可体验大数据平台在高级安装模式下用户可在现有的K8s集群上集成运行大数据组件不用额外单独建设大数据集群项目地址:https://github.com/linktimecloud/kubernetes-data-platform辛辛苦苦研究出来的成果,为什么要开源?这波格局开大,老板有话说问题1:我们为什么要开源?我们的产品一直是基于大数据开源生态体系建设的。之前就一直有开源回馈社区的计划,但是因为之前Kubernetes对于大数据组件的支持还不够成熟,我们也一直在迭代与Kubernetes的适配。贡献参考开发者指南,了解如何开发及贡献KDP。
【新智元导读】最大开源模型,再次刷爆纪录!Snowflake的Arctic,以128位专家和4800亿参数,成为迄今最大的开源模型。是又大又稀疏,因此计算资源只用了不到Llama38B的一半,就达到了相同的性能指标。他本人的研究兴趣是机器学习与系统的交叉领域。
Open-Sora在开源社区悄悄更新了,现在单镜头支持长达16秒的视频生成,分辨率最高可达720p,并且可以处理任何宽高比的文本到图像、文本到视频、图像到视频、视频到视频和无限长视频的生成需求。我们期待Open-Sora社区带给我们的下一次惊喜。
4月24日,苹果开源了大语言模型OpenELM。这与微软刚开源的Phi-3Mini类似,是一款专门针对手机等移动设备的模型。这次苹果真的是很有诚意的开源,一开到底所有内容都贡献出来了,家大业大就是敢玩。
【新智元导读】前段时间,微软公布并开源了最新一代大模型WizardLM-2,号称性能堪比GPT-4。还未上线一天,模型权重和公告全被删除了,原因竟是......上周,微软空降了一个堪称GPT-4级别的开源模型WizardLM-2。开发者们还需要耐心等待,微软团队承诺,会在测试完成后重新上线。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
在最新的播客访谈中,小扎再次展现了他的「开源英雄」形象。如果花费100亿美元研发的模型对人类安全且有益,他将选择开源。他对于AI模型能力的未来提升持保留态度,认为短期内不太可能实现AGI,需要解决能源问题可能需要几十年的时间。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
Meta突然官宣了Llama3,把开源模型的实力又往上提了一截。Llama3总共有三个版本——8B、70B和405B。正如BenHorowitz所说,「keepthemainthing,themainthing」,并努力专注于你的关键优先事项。
扎克伯格:「有了Llama3,全世界就能拥有最智能的AI。」ChatGPT拉开了大模型竞赛的序幕,Meta似乎要后来居上了。也许只有OpenAI的GPT-5才能压下开源模型了。