11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
近几个月来,大型语言模型在人工智能社区中引起了极大的关注和流行。这些模型在文本摘要、问答、代码完成、内容生成等任务中展示出了强大的能力。考虑到低质量网络数据的丰富性和经典LLM训练方法的资源密集性,这种方法提供了一种可能的前进方式。
5月21日,2023祥符创新论坛转化医学产业高峰论坛在浙江嘉善举办。上海人工智能研究院、祥符实验室、转化医学国家科学中心联合重磅发布全国首个DNA存储领域预训练大模型“ChatDNA”。会上还围绕精准医学及生命科学前沿热点问题,诊断技术、基因测序、DNA存储、医学人工智能、生物材料及药物研发等前沿领域的最新进展,共同探讨当前转化医学产业的发展现状,分析热点和难点,分享实践经验和创新思路,推动医学产业的健康发展。
天翼云科技有限公司在2023云生态大会上表示,天翼云正在自主研发预训练大模型,目前已经进入内部测试阶段,将在近期适当的时候发布。天翼云科技有限公司,是中国电信子公司。天翼云是中国电信旗下云计算品牌,2016年,天翼云发布天翼云3.0。
阿里云百炼大模型服务平台近期宣布了一项重要的支持计划,即为Meta公司最新开源的Llama3系列大语言模型提供全方位的支持。这项服务包括限时免费的模型训练、部署和推理服务,旨在帮助企业和开发者在阿里云平台上构建和优化自己的专属大模型。通过结合阿里云强大的云计算资源和Llama3模型的先进性能,企业和开发者将能够开发出更加智能和高效的AI应用,加速AI技术的创
如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。斯坦福HAI研究所发布了第七个年度的AIIndex报告,这是关于人工智能行业现状的最全面的报告之一。该指数中的其他图表显示,不同人群的观点存在显著差异,年轻人更倾向于乐观地看待人工智能将如何改变他们的生活。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
【新智元导读】大语言模型的「逆转诅咒」,被解开了。来自MetaFAIR的研究人员推出了反向训练大法,让模型从反方向上学到了事实之间的逻辑,终于改进了这个困扰人们已久的问题。36年前的预言1988年,Fodor和Pylyshyn在《认知》刊物上发了一篇关于思维的系统性的文章。
快科技3月24日消息,中国电信官方宣布,首个国产单池万卡液冷算力集群,天翼云上海临港国产万卡算力池正式启用,首批用户也同时入驻。据介绍,这不仅是国内首个投入正式运营的国产单池万卡液冷算力集群,也是业内领先的全国产化云智一体公共智算中心。该集群采用新一代国产AI算力,通过高速RDMA连接各物理机节点,提供低延时、高吞吐量、无损通信网络和强大的并行计算能力,多项技术指标领跑全国。该集群还最高可支持万亿参数大模型,满足AI计算、深度学习、图形渲染等复杂训练任务对算力的要求。有机构认为,双碳背景下,IDC绿色化是大势
亚马逊云科技与英伟达扩展合作,加速生成式AI创新。双方将在亚马逊云科技上提供NVIDIABlackwell架构GPU,包括GB200GraceBlackwell超级芯片和B100TensorCoreGPU,以帮助客户解锁新的生成式AI能力。推出生成式AI微服务,推进药物发现和医疗领域的发展。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事苹果大模型MM1入场:参数达到300亿超半数作者是华人全球最快AI芯片WSE-3发布性能碾压H100!Midjourney禁止用户生成拜登和特朗普图片Claude3HaikuAPI发布OpenAICTO承认Sora训练�
中兴通讯推出专为大规模模型训练设计的旗舰GPU服务器—R6900G5。该中兴服务器具备卓越的计算性能、高速网络通信能力以及创新的能效表现,有望为人工智能和深度学习等领域带来全新的突破。相信中兴通讯会继续深耕科技创新,为用户提供更加优质、高效的最强算力解决方案,推动数字经济的繁荣发展。
APUS与深圳大学大数据系统计算技术国家工程实验室联合训练伶荔Linly-70B中文大模型,并在GitHub上正式首发开源,这是APUS大模型3.0的首个开源大模型。APUS大模型3.0伶荔在中文基准测评榜单C-Eval上评分80.6分,中文能力超越GPT-4,在所有参评模型中排名第三,相比原始开源模型标杆LLaMa2-70B取得了大幅提升。APUS还将与大数据国家工程实验室持续推动模型的能力提升和应用拓展,积极探索深化大模型在工具使用、剧情生成和角色扮演、医疗等领域的专业能力,聚力构建大模型生态,让为中国打造的AI大模型真正驱动中国AI产业高质量发展,实现价值共创,赋能千行万业。
语言模型一直是自然语言处理技术的核心,考虑到模型背后的巨大商业价值,最大最先进的模型的技术细节都是不公开的。真·完全开源的大模型来了!来自艾伦人工智能研究所、华盛顿大学、耶鲁大学、纽约大学和卡内基梅隆大学的研究人员,联合发表了一项足以载入AI开源社区史册的工作——他们几乎将从零开始训练一个大模型过程中的一切数据和资料都开源了!论文:https://allenai.org/olmo/olmo-paper.pdf权重:https://huggingface.co/allenai/OLMo-7B代码:https://github.com/allenai/OLMo数据:https://huggingface.co/datasets/allenai/dolma评估:https://github.com/allenai/OLMo-Eval适配:https://github.com/allenai/open-instruct具体来说,艾伦人工智能研究所推出的这个开放大语言模型实验和训练平台,则提供了一个完全开源的大模型,以及所有和训练开发这个模型有关的数据和技术细节——训练和建模:它包括完整的模型权重、训练代码、训练日志、消融研究、训练指标和推理代码。她对机器学习的技术和认知科学的理论的融合应用充满了热情。
据国外媒体报道称,美国试图在AI人工智能上对中国企业更大的打击,除了硬件外,软件服务上也在收紧限制。继芯片出口管制后,美国商务部着手管制云的出口。华为云排名第五,2022年收入为52.5亿美元,市场份额为4.4%。
随着人工智能技术的发展,以GPT-4为代表的大语言模型依靠其强大的能力正在对社会产生深远的影响。大模型本身的安全性问题也变得尤为重要。也公开了收集的所有法律准则与道德准则,以及5个测试基准中所使用的所有数据。
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/🤖📱💼AI应用1、百度推出视频生成模型UniVG可处理各种文本和图像的组合输入【AiBase提要:】⭐UniVG是一种“统一模态视频生成系统”。🔸研究强调了预训练数据筛选过程中的复杂
《纽约时报》在美国时间12月27日对微软和OpenAI提起诉讼,理由是这两家公司利用其文章训练ChatGPT等人工智能聊天机器人,侵犯了其版权。媒体与可能对新闻业造成颠覆性影响的人工智能技术之间的关系正日益紧张。OpenAI发言人周三表示:“我们希望能找到一种互利的合作方式,就像我们与许多其他出版商所做的那样。
随着ChatGPT等大模型被广泛应用在实际业务中,其输出内容的真实、可靠、安全性成为了重点。学术界则使用“归因”来表示追查、证实内容。斯坦福便是将协同归因和贡献归因的主要功能,整合在一个框架中方便开发者对大模型进行各种安全、内容验证。
随着对生成式人工智能技术需求的激增,大型语言模型的训练和容错性要求也在不断增加。为应对这一挑战,密歇根大学的研究人员开发了一款名为Oobleck的开源大型模型训练框架。Oobleck的开发标志着利用固有冗余提高容错性的新里程碑,为大型模型的高效训练和故障恢复提供了一种创新性的解决方案。
开源大模型社区HuggingFace公布了最新的开源大模型排行榜,通义千问在预训练模型类别中脱颖出,占据榜首位置。HuggingFace开源大模型排行榜涵盖了全球上百个顶尖的开源大模型,并从阅读理解、逻辑推理、数学计算、事实问答等六个维度进行了全面评估。阿里云开源通义千问720亿参数模型。
为了满足大模型对计算资源的需求,智源研究院开发了FlagAttention项目,旨在构建一套适配多种芯片的大模型核心算子集合。该项目选择使用Triton作为开发语言,通过Triton的开放性和易用性,使得FlagAttention不仅支持NVIDIAGPU可以显著降低不同芯片之间模型适配的成本,提高大模型的训练与推理效率。FlagAttention还将支持更多功能,并与其他芯片厂商合作,优化算子的性能和适配。
为了拆开大模型的「黑箱」,Anthropic可解释性团队发表了一篇论文,讲述了他们通过训练一个新的模型去理解一个简单的模型的方法。Anthropic发表的一项研究声称能够看到了人工智能的灵魂。我们是否也在模拟一个更大的大脑?目前这还是一个非常新的研究领域,但已经有一些初步的发现,表明人类视觉皮层中的神经元确实以某种超定位的方式编码特征,与AI模型中观察到的模式相似。
北京大学和中山大学等机构的研究者提出了一种名为Chat-UniVi的视觉语言大模型,实现了统一的视觉表征,使其能够同时处理图片和视频任务。这一框架的独特之处在于,它不仅在深度学习任务中表现卓越仅需短短三天的训练时间,就能够训练出具有130亿参数的通用视觉语言大模型。Chat-UniVi的提出为视觉语言模型的研究领域带来了新的思路,通过统一的视觉表征实现了对多模态数据的高效处理,为深度学习模型的训练和推理提供了更加便捷和经济的解决方案。
Keras3.0的发布标志着一次重大的更新迭代,经过5个月的努力,该版本在多个方面带来了显著的改进。Keras3.0全面支持了TensorFlow、JAX和PyTorch框架,这意味着用户现在可以选择在不同框架上运行他们的Keras工作流。Keras3.0的发布不仅为深度学习开发者提供了更多选择和工具在多方面的性能和灵活性上有了显著提升,为未来的深度学习应用奠定了更加坚实的基础。
加州大学伯克利分校的研究人员推出了一款名为Starling-7B的开放式大型语言模型,采用了一种称为ReinforcementLearningfromAIFeedback的创新训练方法。RLAIF的独特之处在于利用其他人工智能模型的反馈来提升性能,相较于传统的人工反馈,这种方法更具有成本效益、速度快、透明度高、可扩展性强的优势。感兴趣的人还可以在聊天机器人领域测试该模型。
在当前大模型参数规模呈指数级增长的情况下,腾讯近日披露了混元大模型训练的最新方法,通过升级自研机器学习框架Angel,成功提升大模型训练效率。这一升级使得千亿级大模型训练可以节省高达50%的算力成本,为应对算力紧缺提供了有力支持。腾讯内部已有超过300项业务和应用场景接入腾讯混元大模型内测,涵盖了文本总结、摘要、创作、翻译、代码等多个领域,这标志着整个生产链路的全面升级,从模型研发到应用落地形成了一站式的平台,进一步推动了大模型应用的发展。
ElevenLabs的语音生成式AI平台发布了“语音转语音”功能,用户可上传语音并自动转换为不同音色,实现声音的自由切换,为用户带来全新的语音生成体验。免费体验地址:https://elevenlabs.io/voice-changerWhatsApp的人工智能助手向部分iOS用户开放Meta旗下的WhatsApp在最新的iOS测试版中引入了人工智能助手,用户可通过快捷方式在聊天中进行自然对话,获取实时信息和自动建议。Windmill:快速
微软研究和清华大学的研究人员共同提出了一种名为“Skeleton-of-Thought”的全新人工智能方法,旨在解决大型语言模型生成速度较慢的问题。尽管像GPT-4和LLaMA等LLMs在技术领域产生了深远影响,但其处理速度的不足一直是一个制约因素,特别是在对延迟敏感的应用中,如聊天机器人、协同驾驶和工业控制器。通过引导LLMs构建答案的骨架,然后进行并行扩展,SoT有效地提高了响应�
英伟达发布基于Hopper架构的新一代AI处理器H200,内存带宽提升至141GB和4.8TB/s,推理速度提高2倍,将于2024年第二季度开始发货。最受欢迎的自定义GPTTop9名单发布在OpenAI推出GPTs后,网友们以惊人速度创造了多样功能的自定义GPT,其中Top9包括设计、音乐、食谱等领域,展现了无限可能性。通过对Vimium进行改动,使其能够与GPT-4V互动,用户可以更快速、高效地处理大量信息,摆脱信
最新研究警告,大型模型在基准评估中可能面临潜在危害,原因是测试集中的数据可能意外进入预训练过程。这项研究由中国人民大学信息学院、高瓴人工智能学院和伊利诺伊大学厄巴纳-香槟分校的学者联合进行。对于未来的研究,需要进一步探讨不同程度的数据泄露对模型性能的影响,并在预训练中引入数据泄露进行更深入的模拟测试。