11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
在5月10日于北京举行的以“效率驱动未来”为主题的2024值得买科技集团战略发布会上,值得买科技创始人、董事长隋国栋分享了公司的创业理念、AIGC实践以及对未来技术发展趋势的深入洞察。隋国栋表示,值得买科技始终由一群技术爱好者引领,他们见证了互联网到移动互联网的变迁,并坚信AI技术将为公司带来新的发展机遇。他的愿景是使值得买科技成为AIGC应用的代表性公司,参与建设AI时代。
据外媒theInformation报道,微软正准备推出一种新的、内部AI语言模型。新模型内部代号为MAI-1,由最近加入微软的梅斯塔法・苏莱曼负责,他是谷歌DeepMind的联合创始人,也是人工智能初创公司Inflection的前CEO。报道补充说,新模型并非来自Inflection,尽管它可能基于该初创公司的训练数据。
开源大模型,已经开启大卷特卷模式。太平洋两岸,双雄格局正在呼之欲出。自研大模型的必要性和竞争力,正在不断被开源卷王们卷没了。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、清华团队发布视频大模型Vidu可生成16秒、1080P视频清华大学与生数科技在中关村论坛未来人工智能先锋论坛上发布了中国首个长时长、高一致性、高动态性视频大模型Vidu,标志�
阿里巴巴宣布开源其最新的Qwen1.5系列语言模型-Qwen1.5-110B。这是Qwen1.5系列中规模最大的模型,也是该系列中首个拥有超过1000亿参数的模型。它在与最近发布的SOTA模型Llama-3-70B的性能上表现出色,并且明显优于72B模型。
通义千问团队开源的首个千亿参数模型,Qwen1.5-110B。该模型在基础能力和Chat评估中表现出色,与其他同类模型相比有显著提升。团队将继续探索模型规模提升和扩展预训练数据规模两种方法带来的优势。
京东创始人刘强东啊,他昨天又加班了。是他的AI数字人形象“采销东哥”,昨晚开启了自己生涯第四场直播。OneMoreThing聊着聊着,一个有趣的问题被抛出来。
【新智元导读】最大开源模型,再次刷爆纪录!Snowflake的Arctic,以128位专家和4800亿参数,成为迄今最大的开源模型。是又大又稀疏,因此计算资源只用了不到Llama38B的一半,就达到了相同的性能指标。他本人的研究兴趣是机器学习与系统的交叉领域。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
扎克伯格:「有了Llama3,全世界就能拥有最智能的AI。」ChatGPT拉开了大模型竞赛的序幕,Meta似乎要后来居上了。也许只有OpenAI的GPT-5才能压下开源模型了。
谷歌最近发布了面向企业、开发人员的全新代码模型CodeGemma,该模型参数小、性能强,同时对硬件要求较低。CodeGemma共有基础预训练、指令微调和快速推理三个版本,在基准测试中展现出优异的性能表现。以上为谷歌发布的CodeGemma模型的相关内容,更多详细信息可参考开源地址和技术报告。
360公司自主研发的7B参数大模型——360智脑,现已正式上线开源社区,并提供了基础模型以及4K、32K、360K三种不同文本长度的版本。这一大模型在支持文本长度方面表现出色,最长可处理360K长文本,相当于约50万字的输入内容。在中英文360K大海捞针效果测试中,也取得了超过98%的高分。
美国当地时间4月9日,Intel举办了一场面向客户和合作伙伴的IntelVision2024产业创新大会,做出多项重磅宣布,包括全新的Gaudi3AI加速器,包括全新的至强6品牌,以及涵盖全新开放、可扩展系统,下一代产品和一系列战略合作的全栈解决方案。预计到2030年,全球半导体市场规模将达1万亿美元,AI是主要推动力,不过在2023年,只有10%的企业能够成功将其AIGC项目产品化。Intel将利用至强处理器、Gaudi加速器,推出AIGC流水线的参考实现,发布技术概念框架,并继续加强IntelTiber开发者云平台基础设施的功能。
站长之家(ChinaZ.com)4月9日 消息:Stability AI在最新的Stable LM2模型更新中,宣布将参数增至120亿,以提升性能与可访问性。该更新为用户提供了更强大、更精确的文本内容生成能力。Stability AI指出,该模型在特定基准测试下表现优异,超过了Llama270B等更大型模型。新的Stable LM212B模型包括基础版本和经过指导调整的变体,旨在增强七种语言(英语、西班牙语、德语、意大利语、法�
【新智元导读】苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。会读心的Siri想不想要?今天,苹果发布了自家的最新模型ReALM,仅需80M参数,就能在上下文理解能力上打平甚至超越GPT-4!论文地址:https://arxiv.org/pdf/2403.20329.pdfReALM可以将任何形式的上下文转换为文本来进行理解,比如解析屏幕、多轮对话、以及上下文中的引用。随着模型大小的增加,所有数据集的性能都有所提高屏幕相关数据集的差异最为明显,因为这项任务在本质上更加复杂。
据昆仑万维官微发文,天工大模型3.0将于4月17日正式发布,并同步开源4000亿参数MoE超级模型。这一模型采用了4千亿级参数MoE混合专家模型,是全球模型参数最大、性能最强的MoE模型之一。天工大模型3.0的发布和开源,无疑将推动人工智能领域的技术进步和应用创新,为产业界和学术界带来全新的机遇和挑战。
2023年4月17日,昆仑万维发布自研双千亿级大语言模型「天工1.0」正式奠定了国产大模型崛起之路。「天工3.0」也是全球首个多模态“超级模型”,其集成了AI搜索、AI写作、AI长文本阅读、AI对话、AI语音合成、AI图片生成、AI漫画创作、AI图片识别、AI音乐生成、AI代码写作、AI表格生成等多项能力,是大模型时代的“超级应用”。“超级模型”的概念诞生于“超级应用”。
在即将到来的2024年4月17日,也就是「天工」大模型一周年之际,昆仑万维宣布「天工3.0」正式开启公测!这一版本采用了4千亿级参数的MoE混合专家模型,并将选择开源,是全球模型参数最大、性能最强的MoE模型之一。「天工3.0」相较于上一代的「天工2.0」MoE大模型,在模型语义理解、逻辑推理、通用性、泛化性、不确定性知识、学习能力等方面都有惊人的性能提升。用户可以在4月17日下载新版的“天工AI助手”App,来体验超级模型的震撼AI功能。
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。根据Databricks公布的协议,基于DBRX打造的产品,如果月活超过7亿,就必须另行向Databricks提交申请。
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。
快科技3月24日消息,中国电信官方宣布,首个国产单池万卡液冷算力集群,天翼云上海临港国产万卡算力池正式启用,首批用户也同时入驻。据介绍,这不仅是国内首个投入正式运营的国产单池万卡液冷算力集群,也是业内领先的全国产化云智一体公共智算中心。该集群采用新一代国产AI算力,通过高速RDMA连接各物理机节点,提供低延时、高吞吐量、无损通信网络和强大的并行计算能力,多项技术指标领跑全国。该集群还最高可支持万亿参数大模型,满足AI计算、深度学习、图形渲染等复杂训练任务对算力的要求。有机构认为,双碳背景下,IDC绿色化是大势
亚马逊云科技与英伟达扩展合作,加速生成式AI创新。双方将在亚马逊云科技上提供NVIDIABlackwell架构GPU,包括GB200GraceBlackwell超级芯片和B100TensorCoreGPU,以帮助客户解锁新的生成式AI能力。推出生成式AI微服务,推进药物发现和医疗领域的发展。
高通最强手机芯片骁龙8Gen3迎来了一款与它同源的「旗舰级」产品。3月18日,高通正式推出了第三代骁龙8s移动平台,凭借旗舰级的CPU、GPU和AI性能,全方位支持了强大的终端侧生成式AI功能、始终感知的ISP、超沉浸的移动游戏体验、突破性连接能力和无损高清音频。至于骁龙8sGen3能否「兑现」所宣称的各方面能力提升,我们期待手机厂商尽快发布新品,来验一验这款全新骁龙旗舰芯片的成色。
高通技术公司震撼发布全新旗舰级移动平台——第三代骁龙®8s,为Android旗舰智能手机市场注入了全新活力。这款平台不仅继承了骁龙8系平台广受欢迎的特性,更在多个方面实现了显著升级,为用户带来前所未有的顶级移动体验。首款搭载该平台的终端预计将于3月正式面市,届时消费者将能够亲身体验到这款旗舰级移动平台带来的非凡魅力。
马斯克的AI创企xAI正式宣布其大语言模型Grok-1已实现开源,并向公众开放下载。Grok-1是一款基于混合专家系统技术构建的大语言模型,拥有3140亿参数,远超OpenAIGPT-3.5的1750亿。xAI并没有放出Grok-1的具体测试成绩,它与其他公司的大模型之战将成为业内关注的焦点。
苹果显然已经加大了对生成式人工智能的重视和投入。此前在2024苹果股东大会上,苹果CEO蒂姆・库克表示,今年将在GenAI领域实现重大进展。更多研究细节,可参考原论文。
苹果公司最新发布了一款名为MM1的大型多模态基础模型,拥有300亿参数,采用了MoE架构,并且超过一半的作者是华人。该模型在多模态领域具有重要意义,可能预示着苹果未来推出与此相关的产品。该研究的成果对于推动生成式人工智能领域的发展具有重要意义,值得业界密切关注。
微软研究团队引领着教育技术领域的不断创新,近日推出了一款名为Orca-Math的前沿工具,它是一款小语言模型,拥有7亿参数,并基于Mistral-7B架构微调来。这一创新方法重新定义了传统数学单词问题教学的策略,彻底改变了学生参与和掌握这一学科的方式。通过利用SLM通过合成数据集和迭代反馈来解锁学习工具的全新时代,Orca-Math为技术和学习手牵手走向解锁全球学生的全部潜力的未来提供了一瞥。
英伟达最新推出的Nemotron-4语言模型引起广泛关注。这一通用大模型拥有150亿参数,经过在8Ttoken上的训练,在英语、多语言和编码任务中表现出色。Nemotron-4的推出标志着英伟达在通用大模型领域的一次重要突破,为单个A100或H100GPU上运行的最佳通用大模型设定了新标准。
针对文本到图像生成模型领域中的个性化主题驱动模型,出现了一些令人印象深刻的进展,如DreamBooth和BLIP-Diffusion。这些模型普遍存在着对微调的需求较高和参数规模庞大的限制。综合对比实验结果,DiffuseKronA在视觉质量、文本对齐性、可解释性、参数效率和模型稳定性等方面均优于LoRA-DreamBooth,为T2I生成模型的领域带来了重大进展。