11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
ECFORGE就为大家搜集整理了10款国内本年度最值得期待也是目前最流行的行业电子商务建站软件,其中部分是免费开源的,部分是收费的,希望能给想在2010年涉足B2B电子商务领域的你提供些许参考。
在这里向大家推荐的是B2B-BUILDER商务系统,这个B2B商务系统个人感觉在当前的主流行业B2B系统中是最好的,本人目前广西东盟商业网(主要面向东盟自由贸易区的B2B商务门户网站http://www.w8www.com)正是采用此系统。
PHPB2B是一款免费开源的程序,我们对代码开源是为了让更多的人来关注PHP, 关注B2B,但是该商务系统在PHPB2B的基础上进行了二次开发后,就拿来作为自己的产品进行发布, 这已经严重违反了国际化的GPL开源协议。
阿里巴巴宣布开源其最新的Qwen1.5系列语言模型-Qwen1.5-110B。这是Qwen1.5系列中规模最大的模型,也是该系列中首个拥有超过1000亿参数的模型。它在与最近发布的SOTA模型Llama-3-70B的性能上表现出色,并且明显优于72B模型。
通义千问团队开源的首个千亿参数模型,Qwen1.5-110B。该模型在基础能力和Chat评估中表现出色,与其他同类模型相比有显著提升。团队将继续探索模型规模提升和扩展预训练数据规模两种方法带来的优势。
导语:市场上首个K8s上的大数据平台,开源了!智领云自主研发的首个完全基于Kubernetes的容器化大数据平台KubernetesDataPlatform开源啦!开发者只要准备好命令行工具,一键部署Hadoop,Hive,Spark,Kafka,Flink,MinIO...就可以创建以前要花几十万甚至几百万才可以买到的大数据平台无需再花大量的时间和经费去做重复的研发高度集成,单机即可体验大数据平台在高级安装模式下用户可在现有的K8s集群上集成运行大数据组件不用额外单独建设大数据集群项目地址:https://github.com/linktimecloud/kubernetes-data-platform辛辛苦苦研究出来的成果,为什么要开源?这波格局开大,老板有话说问题1:我们为什么要开源?我们的产品一直是基于大数据开源生态体系建设的。之前就一直有开源回馈社区的计划,但是因为之前Kubernetes对于大数据组件的支持还不够成熟,我们也一直在迭代与Kubernetes的适配。贡献参考开发者指南,了解如何开发及贡献KDP。
中国电信近期宣布开源其12B参数规模的巨型AI模型TeleChat-12B,此举标志着国内大模型技术发展的又一重要进展。与1月份发布的7B参数版本相比,TeleChat-12B在内容理解、性能表现和应用场景等方面实现了约30%的整体提升,特别是在多轮对话推理和安全相关领域的能力上,提高超过了40%。除了在传统行业中的应用,星辰大模型也在积极探索更多前沿领域的应用,例如在无人机智能编
4月12日,由开放原子开源基金会牵头、OurBMC社区及理事长单位飞腾信息技术有限公司联合承办的OurBMC开源大赛总决赛在江苏宿迁圆满落幕。共有10支参赛队伍凭着初赛的优异表现进入决赛,在路演现场上演了一场精彩绝伦的对决。经过长达4个月的层层筛选和激烈角逐,最终,来自全国各地的10支优秀队伍脱颖出。
HuggingFace首次发布了其Idefics视觉语言模型,该模型于2023年首次亮相,采用了最初由DeepMind开发的技术。Idefics迎来了升级,新版本Idefics2拥有更小的参数规模、开放许可证以及改进的光学字符识别能力。Idefics2的发布是AI繁荣持续推出的许多多模态模型之一,包括Reka的新Core模型、xAI的Grok-1.5V和Google的Imagen2。
360公司自主研发的7B参数大模型——360智脑,现已正式上线开源社区,并提供了基础模型以及4K、32K、360K三种不同文本长度的版本。这一大模型在支持文本长度方面表现出色,最长可处理360K长文本,相当于约50万字的输入内容。在中英文360K大海捞针效果测试中,也取得了超过98%的高分。
大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。业界已经出现了一批引人瞩目的代码大模型,比如OpenAI的CodeX、谷歌DeepMind的AlphaCode、HuggingFace的StarCoder,帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升效率。aiXcoder也因其极具前瞻性的探索方向、踏踏实实的落地实践,不断受到资本市场的追捧,高瓴、清流、彬复等极具行业引领性的基金
4月9日,aiXcoder推出全新自研7B代码大模型。该模型在多个主流评估标准评测集中,与所有同量级开源模型对比效果最佳,彰显出其作为百亿参数天花板级代码大模型的非凡实力。探索软件自动化的征程正迈向一个前所未有的智能化时代,aiXcoder团队的每一次重大突破,都致力于打造更加智能、高效、安全、可靠的软件系统,努力成为大模型与传统软件可靠融合的重要推手。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在当今科技快速发展的时代,AI代码生成技术正逐渐成为软件开发领域的热门话题。尽管AI在解决编程问题方面表现出色,但在真实的企业开发环境中,其应用似乎还不够理想。随着代码大模型能力的日益增强,我们有理由相信,aiXcoder-7B将为程序员们带来更多的创新潜能,推动编程自动化的浪潮向前发展。
阿里的通义千问,终于拼齐了1.5系列的最后一块拼图——正式开源Qwen1.5-32B。直接来看“成绩单”。GQA的引入就降低了注意力计算的数量,从加速了推理时间。
通义千问近期开源了新的Qwen1.5-32B模型,该模型在语言理解、支持多语言、编程和数学能力方面表现出色。Qwen1.5-32B模型不仅支持多语言融合了GQA技术,使得模型在推理方面的效率更高,同时降低了部署成本。Qwen1.5-32B模型的开源将为语言理解和推理技术的发展带来重大影响,为解决复杂问题提供了更加强大的工具和资源。
通义千问团队最新发布了Qwen1.5-32B模型系列,其中包括Qwen1.5-32B和Qwen1.5-32B-Chat。这些模型在模型架构上与之前的Qwen1.5系列基本相同,但参数量减少至32B,旨在提供更高效、更经济实惠的解决方案。此次发布旨在解决14B模型在智能体场景下能力弱和72B模型推理成本高的问题。
自从“AI程序员”Devin问世之后,近期的一大趋势就是程序员们争先恐后地要让自己失业,试图抢先造出比自己更强大的程序员。普林斯顿大学为软件工程界迎来了一位新星——SWE-agent,论文将在4月10日正式发布,目前项目已在GitHub上开源。在4月10日即将发布的论文中,普林斯顿大学团队还将深入探讨代理的技术架构、算法和性能优化策略,并详细介绍成本优化策略:SWE-agent旨在
普林斯顿大学最近推出了一款名为SWE-agent的AI程序员,这是世界上首个开源的AI程序员,它基于GPT-4技术,能够在GitHub仓库中自动修复bug。这个智能体-计算机接口的诞生,标志着AI在软件工程领域的应用迈出了重要一步。随着技术的不断进步,我们或许将见证AI在软件工程领域扮演更加重要的角色。
澜舟科技近日宣布,其研发的孟子3-13B大模型正式开源,并向学术研究领域全面开放,同时支持免费商用。这一轻量化大模型在多项基准测试中展现了优异的性能,特别是在参数量20B以内的模型中,其中英文语言能力尤为突出,数学和编程能力也位于行业前列。这一举措无疑将推动大模型技术的发展和应用,为AI产业的进步贡献力量。
通义千问团队推出了Qwen系列的首个MoE模型,命名为Qwen1.5-MoE-A2.7B。这个模型只有27亿个激活参数,但性能却与当前最先进的70亿参数模型相媲美。Qwen1.5-MoE模型在性能、效率和推理速度方面取得了显著的优势,是推理训练的最佳实践之一。
日前,360创始人周鸿祎发文,称自己是开源的信徒”,信奉开源的力量。他还宣布即将开源360智脑7B,支持360k长文本输入。月之暗面宣布Kimi智能助手启动200万字内测,文心一言计划在下个月将字数上限提高至200万-500万字。
360创始人周鸿祎公开宣布了一个重要决定:即将开源360智脑7B模型,该模型具备70亿参数,并支持长达360k的文本输入。周鸿祎自称为“开源的信徒”,坚信开源的力量,并认为此举可以避免行业内的重复劳动,推动技术进步。阿里通义千问更是宣布免费开放1000万字长文档处理功能,进一步推动了长文本处理技术的发展。
3月29日,知名AI研究实验室AI21在官网开源了,首个基于SSM-Transformer混合架构的商业大模型——Jamba。ChatGPT、StableDifusion、Lyria等产品使用的皆是Transformer架构,虽然在捕捉序列内长距离依赖关系、泛化能力、特征提取等方面非常优秀,但在处理长序列、训练大参数模型时存在AI算力消耗大、过拟合、内存占用大等缺点。耐克、Zoom、沃尔玛、三星、阿迪达斯、airbnb等知名企业在使�
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
最新开源大语言模型DBRX以其惊人的1320亿参数量成为业界新宠。该模型不仅在语言理解、编程和数学等方面超越了业内领先的开源模型在效率上有所突破。随着其在各项基准测试中的优异表现,DBRX有望成为未来开源大模型发展的重要里程碑,为人工智能领域的进步贡献力量。
DBRX是一个由Databricks的Mosaic研究团队构建的通用大型语言模型,在标准基准测试中表现优于所有现有开源模型。它采用Mixture-of-Experts架构,使用362亿个参数,拥有出色的语言理解、编程、数学和逻辑推理能力。为了体验「DBRX」的强大功能,请访问AIbase网站查看更多介绍。
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。
随着短视频在社交媒体和营销领域的普及,一款名为MoneyPrinterTurbo的工具应运生,旨在帮助用户轻松制作出专业品质的短视频。项目地址:https://github.com/harry0703/MoneyPrinterTurbo这款工具的强大之处在于,用户只需输入一个主题或几个关键词,就能自动生成一分钟长的短视频。且它是开源的,这意味着开发者可以不断改进和扩展其功能,为用户带来更好的体验。