11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
OpenAI宣布从今天开始到9月23日,免费为4级、5级用户提供GPT-4omini微调服务,帮助开发者打造特定业务用例的生成式AI应用。每天限制200万tokens数据,超过的部分将按照每10万tokens3美元收取。OpenAI已经用GPT-4omini取代了之前的GPT-3.5Turbo,免费为ChatGPT提供服务。
大模型之争,到了不只是拼技术的时刻。最新的行业风向是:谁能大范围应用落地?谁能笑到最后?谁能真正产生价值?对大模型行业玩家的评判标准也不再只看技术。腾讯决定打一场持久战。
【新智元导读】大模型价格战,这匹国产黑马又破纪录了!最低的GLM-4Flash版本,百万token价格已经低至0.1元,可以说是击穿地心。MaaS2.0大升级,让企业训练私有模型的成本无限降低。MaaS平台2.0的诞生,将会进一步扩大智谱生态朋友圈。
【新智元导读】研究人员提出了一种新的大型语言模型训练方法,通过一次性预测多个未来tokens来提高样本效率和模型性能,在代码和自然语言生成任务上均表现出显著优势,且不会增加训练时间,推理速度还能提升至三倍。大型语言模型,例如GPT和Llama,主要是根据「前文的单词序列」对「下一个token」进行预测的方式来训练。在摘要任务中,使用了8个不同的基准测试,并通
每个token只需要5.28%的算力,精度就能全面对标Llama3。开源大模型,再添一位重量级选手——来自浪 潮信息的32专家MoE模型,源2.0-M32。从创新研发到开源开放,浪 潮信息将坚持致力于研发基础大模型,为企业用户降低大模型使用门槛,加速推进产业智能化升级。
商汤科技正式发布了全新的“日日新大模型5.0粤语版”。这一版本不仅定价亲民,以30港元的价格提供1Mtokens的优质服务支持最大128K窗口,确保用户在使用过程中获得流畅、高效的体验。这一粤语版本还继承了SenseChatV5原版的核心优势。
AI芯片厂商SambaNovaAI最新推出的AI芯片Samba-1Turbo表现出色,被称为AI领域的新速度之王。据外部机构ArtificialAnalysis独立测试结果显示,Samba-1Turbo在Llama3Instruct上的输出速度达到每秒1,084个token,创下了目前为止最快的记录。AI领域的竞争愈发激烈,Samba-1Turbo的问世必将为SambaNovaAI赢得更多市场份额。
通义千问GPT-4级大模型,直接击穿全网底价!就在刚刚,阿里突然放出大招,官宣9款通义大模型降价。性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,也就是1块钱能买200万tokens,相当于5本《新华字典》的文字量,堪称全球大模型的性价比之王。近来卷起的降价趋势,对于开发者和期待更多大模型应用的胖友们言,不可谓不是利好消息。
阿布扎比先进技术研究委员会下属的技术创新研究所发布了新一代的Falcon2模型。这一开源的大语言模型以其110亿参数和5.5万亿token的规模,性能超越了Llama3。Falcon2的本次升级,为其商化进程提供了有力支撑TII也透露正在酝酿Falcon2下一代模型,这些模型的性能将得到进一步增强,为人工智能领域带来更多的创新和发展。
【新智元导读】GPT-4o发布不到一周,首个敢于挑战王者的新模型诞生!最近,Meta团队发布了「混合模态」Chameleon,可以在单一神经网络无缝处理文本和图像。10万亿token训练的34B参数模型性能接近GPT-4V,刷新SOTA。*表示共同一作,†表示关键贡献者,‡表示工作流程负责人,♯表示项目负责人。
今日,百度发布公告表示,文心大模型日均处理Tokens文本已达2490亿。使用大模型不应该只看价格,更要看综合效果,只有让AI应用效果更好、响应速度更快、分发渠道更广,才能让人们切实感受AI为社会生产带来的便利。其推理性能也实现了惊人的105倍增长推理成本却降低到了原来的1%。
GoogleI/O2024开发者大会在谷歌山景城总部附近的海岸线圆形剧场隆重开幕。在这场科技盛宴中,谷歌率先分享了Gemini大模型的最新突破。随着Gemini模型的进一步升级和扩展,我们有理由相信谷歌将继续引领AI技术的发展潮流,为开发者提供更加高效、智能的工具和平台。
之前:0.005元/千tokens现在:0.001元/千tokens换算一下,就是1元=1000000tokens;同样是百万tokens,ChatGPT的价格是这样的:什么概念呢?相当于花1元钱就能写1万条小红书。这个大动作,一下子就让智谱AI成为入门级里最便宜的那一个;且它还特别提供用户tokens优惠计划:送!开放平台新注册用户获赠从500万tokens提升至2500万tokens。不过有一说一,大模型们开始卷谁更“快、好、省”,用户们是真的
Meta、EcoledesPontsParisTech和UniversitéParis-Saclay的研究人员在一项研究中提出了一种改进AI大型语言模型准确性和速度的方法,即通过同时预测多个token。这与自回归语言模型的经典结构相悖,后者旨在一次预测一个token。它保留了大部分LLM架构,可以与Transformer块的其他优化技术兼容。
2024年4月18日至19日,全球领先的加密资产交易所和Web3科技公司UZX参加了在迪拜举行的TOKEN2049峰会,UZX彰显了其在区块链生态系统中促进行业合作和推动全球应用的坚定决心。作为银牌冠名赞助商之一,UZX以其卓越的表现和引人注目的展台吸引了大量与会者的目光。匿名注册可以保护客户的隐私秒合约交易则使用户能够快速交易并提高交易效率。
【新智元导读】Llama3的开源,或将催生数十亿美元新产业。发布不到一周的时间,全网各种测试微调都开启了。但在还没有发布GPT-5之前,初创公司需要有危机感了。
自ChatGPT问世以来,OpenAI一直被认为是全球生成式大模型的领导者。2023年3月,OpenAI官方宣布,开发者可以通过API将ChatGPT和Whisper模型集成到他们的应用程序和产品中。如果用例完全、详细,那么GPT实际上非常可靠。
北大和字节联手搞了个大的:提出图像生成新范式,从预测下一个token变成预测下一级分辨率,效果超越Sora核心组件DiffusionTransformer。并且代码开源,短短几天已经揽下1.3k标星,登上GitHub趋势榜。他硕士毕业于浙江大学,目前的研究重点是视觉基础模型、深度生成模型和大语言模型。
微软研究人员挑战了语言模型预训练的传统方法,该方法在训练语料库中的所有token上均匀应用下一个token预测损失。他们提出了一种新的语言模型称为RHO-1,该模型利用选择性语言建模。SLM可以扩展到监督微调,以解决数据集中的噪声和分布不匹配,并通过训练一个强调帮助性、真实性和无害性的参考模型来获得在预训练期间获得本地对齐的基本模型。
全网高质量数据集告急!据报道,AI公司如OpenAI、Anthropic等正在努力寻找足够的信息来训练下一代人工智能模型。数据短缺问题日益突出,对训练下一代强大模型至关重要。从合成数据到建立数据市场,AI领域正在不断寻求突破,以确保训练下一代强大人工智能模型所需的数据资源。
百亿token补贴,4月起免费!这次的羊毛来自清华系AI公司无问芯穹,企业与个人皆可薅~这家公司成立于2023年5月,目标是打造大模型软硬件一体化最佳算力解决方案。它发布了基于多芯片算力底座的无穹Infini-AI大模型开发与服务平台,供开发者体验、对比各种模型和芯片效果。”戴国浩宣布,无穹LPU将于2025年面世。
“Claude3、Gemini1.5,是要把RAG给搞死了吗?”随着新晋大语言模型们的上下文窗口变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。之所以如此,是因为它们二者都是为了解决大模型的幻觉问题,可以说是属于两种不同顶尖技术流派之间的对峙。更多CPU支持向量数据库的解决方案内容,请点击“阅读原文”获取。
TRON宣布与加密数据分析平台TokenTerminal达成合作,引发全球知名媒体高度关注。美联社、Benzinga及Cointelegraph等国际主流媒体及加密行业媒体均对此进行了报道,报道称,此次TokenTerminal的数据分析工具套件整合网络数据,将为投资者和分析人员访问和使用TRON数据带来全新选择。该套件是首个基于基本面的加密资产篮子,覆盖多种代币,并根据各代币的表现决定其投资权重。
相信你或多或少对GPT有一定的了解,但我赌你没听说过bGPT。bGPT的意思是byteGPT,即字节GPT。bGPT为这条道路开了个好头。
大模型的纯文本方向,已经卷到头了?刚刚,OpenAI最大的竞争对手Anthropic发布了新一代AI大模型系列——Claude3。该系列包含三个模型,按能力由弱到强排列分别是Claude3Haiku、Claude3Sonnet和Claude3Opus。随着新系列模型的进一步优化和应用,我们或许将看到更加多元化的大模型生态。
近Anthropic刚刚发布了震撼消息:全新Claude3家族登场!最强版本Claude3Opus在推理、数学、编码、多语言理解和视觉等领域已经超越了包括GPT-4在内的所有大模型,展现出接近人类理解能力。前往AIbase官网,开始您的智能匹配之旅。
ChatGPT意外发生失控事件,用户纷纷报告收到混乱令人震惊的回复,引起Reddit、HN等社交平台上广泛的讨论。OpenAI迅速做出回应,确认问题源于「token预测」,并表示已成功修复。尽管OpenAI已迅速做出修复,但事件也提醒我们在推进人工智能技术的同时,需要更加关注模型的稳定性和潜在风险。
HuggingFace推出了Cosmopediav0.1,这是最大的开放合成数据集,由Mixtral7b生成,包含超过3000万个样本,总共约250亿个标记tokens。数据集旨在通过映射来自网页数据集如RefinedWeb和RedPajama的信息来汇编全球知识,包括教科书、博客文章、故事和WikiHow文章等各种内容类型。其目标是通过量身定制提示风格和受众,最大程度地提高多样性,从显著减少重复内容。
这两天国内外人工智能圈子都在热议Groq:这个硅谷公司的产品基于自研芯片可以做到在大模型推理时每秒处理将近500个token。500个token什么概念,大概就是一句话的响应时间只需要不到2秒,如此这般的文字生成速度,甚至比翻译软件还快。虽然有不少那样的公司在当时沸沸扬扬,然才过了几年的工夫,你又能回想起几个这样的公司呢?希望这一次Groq的惊艳也不是一时的。
一家名为Groq的初创公司推出了一款大模型推理芯片,其推理速度达到了每秒500tokens的惊人水平,轻松颠覆了传统GPU的性能。Groq的团队由谷歌TPU原班人马组成,他们自主研发的芯片不仅速度快成本低廉,性价比高,成为了大模型推理加速的新宠。在技术不断创新和竞争日益激烈的背景下,Groq将继续致力于推动大模型硬件领域的发展,为人工智能技术的进步做出更大的贡献。