11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、全球最快AI推理架构CerebrasInference速度提升20倍!CerebrasSystems推出的CerebrasInference将彻底改变AI推理,提供极低成本下20倍速度,为AI计算树立新标杆。报告强调企业需清晰展示生成式A
据韩媒ZDNetKorea援引的消息透露,三星电子正计划利用其4nm工艺进行AI推理芯片Mach-1的原型试产,采用MPW方式。尽管三星已具备3nm代工技术,但出于项目执行稳定性的考虑,公司决定在Mach-1上采用更为成熟的4nm或5nm工艺。外界消息显示,三星在4月份发布了8个与Mach-1芯片相关的招聘岗位,显示了公司对该项目的重视。
fal是一个生成式媒体平台,旨在为开发者提供最先进的生成式媒体模型,并通过fal的推理专家优化,实现闪电般快速的推理。该平台支持实时WebSocket推理基础设施,并提供私有部署选项,以最经济的方式根据使用量付费。开发者可通过fal灵活的计费方式,实现经济高效的生成式媒体应用。
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
Groq公司推出了一款号称性价比高达英伟达GPU100倍的AI推理芯片,引起了广泛关注。运行其最快AI推理芯片LIama2所需的成本高达1171万美元,让业内人士开始对其效益进行热议。Groq推出的AI推理芯片在性能上取得了突破,但成本问题仍需解决。
阿里云推出了第八代企业级通用计算实例ECSg8i,采用了阿里云自研的「飞天CIPU」架构体系和第五代英特尔至强可扩展处理器。新款实例的整机性能最高提升85%,AI推理性能最高提升7倍,可以支持高达72B参数的大语言模型。阿里云表示,ECSg8i实例的强劲表现证明了以CPU为中心的计算体系同样具备加速AI推理的潜力,公共云不仅可以胜任超大规模的AI模型为AI应用加速落地提供了新的路径。
百度发布Apollo开放平台9.0,全面升级自动驾驶开发领域,包括工程、算法和工具三方面,重构12万行代码,新增20万行。工程框架拆分成小软件包,提高灵活性;算法优化感知算法,支持4D毫米波雷达;工具升级包括高精地图、传感器标定等,提升Dreamview效率。项目网址:https://julian-parker.github.io/stemgen/论文网址:https://arxiv.org/abs/2312.08723👨�
美国芯片初创公司EtchedAI近日宣称,他们成功开创了一项新的技术,将Transformer架构直接“烧录”到了芯片中,创造出了世界上最强大的专门用于Transformer推理的服务器Sohu。这项技术可以运行万亿参数的模型,甩英伟达几百条街。这一突破性技术的问世,将为Transformer架构的应用带来新的可能性。
英特尔正式发布了全新酷睿Ultra移动处理器,代号为MeteorLake。酷睿Ultra的设计目标是在能效、制造工艺和性能方面实现突破。它的AI性能在各个方面都遥遥领先竞品,比如在GIMPStableDiffusion中,性能提升达到了竞品的5.4倍。
正在举行的微软Iginte全球技术大会上,微软发布一系列AI相关的全新优化模型、开发工具资源,帮助开发者更深入地释放硬件性能,拓展AI场景。尤是对于当下在AI领域占据绝对主导地位的NVIDIA来说,微软这次送上了一份大礼包,无论是面向OpenAIChatAPI的TensorRT-LLM封装接口是RTX驱动的性能改进DirectMLforLlama2,以及其他热门大语言模型,都可以在NVIDIA硬件上获得更好的加速和应用。目前已经有400多个合作伙伴发布了支持RTXGPU加速的AI应用、游戏随着模型易用性的不断提高,相信会有越来越多的AIGC功能出现在WindowsPC平台上。
Meta公司的生成式人工智能工程总监谢尔盖·埃杜诺夫在硅谷数字工人论坛上透露,为满足明年全球不断增长的人工智能应用推理需求,仅需新增两座核电站的发电量即可。埃杜诺夫表示,他仅通过简单的数学计算得出这个结果。但创新如Salesforce的Blib-2等仍在继续,或可通过提高效率绕开限制。
12月7日,AI创业公司燧原科技(Enflame)发布了第二代云端AI推理加速卡云燧i20”。这是继今年7月的云端AI训练加速卡云燧T20”之后,燧原科技新一代针对云端推理场景的AI加速产品。云燧i20最大亮点就是拥有迄今最大的AI加速卡存储带宽,通过HBM2e内存达到了819GB/s,可为云端推理业务提供高吞吐、低延时的性能。目前,以语音识别、图片识别、视频内容分析为主的感知类应用,内容推荐、欺诈交易拦截等决策类应用,在云端大部分都是以实
在上周举办的2019云栖大会上,阿里巴巴旗下平头哥半导体公司发布了阿里巴巴第一款芯片——含光800,号称全球最高性能AI推理芯片。
在9月25日的 2019 云栖大会上,阿里巴巴“平头哥”正式发布了最强AI芯片“含光800”,据介绍, 1 颗含光 800 的算力相当于 10 颗GPU,“含光800”集成达摩院的创新算法,深度优化CNN及视觉类算法,可大幅提升视觉计算效率。
今天, 2019 阿里云栖大会正式在杭州开幕。在会上,阿里巴巴正式对外发布全新的含光800AI芯片。据称,这是全球性能最高的AI推理芯片。
9月25日杭州云栖大会上,阿里巴巴正式发布含光800AI芯片,官方称全球性能最高AI推理芯片。阿里巴巴集团CTO兼阿里云智能总裁张建锋表示“这是互联网公司研发的第一款芯片,这是万里长征第一步”,张建锋称,阿里巴巴有足够的能力去做传统公司的事情,“我们用一年半时间,就完成了芯片的制作。所以,阿里巴巴将成为软硬件一体化协同发展的公司”。
9月19日据科创板日报报道,华为Cloud & AI产品与服务总裁侯金龙今日在华为HC(全联接)大会上透露,ETC应用了AI推理和训练卡Atlas 300。华为Atlas智能计算平台基于华为昇腾系列AI处理器和业界主流异构计算部件。
在人工智能知识工程领域,产业界和学术界第一次联手发布了知识引擎研究计划。4月21日,阿里巴巴宣布联合清华大学、浙江大学、中国科学院自动化所、中科院软件所、苏州大学5所高校发布藏经阁(知识引擎)研究计划。该计划以结构化的形式描述客观世界中概念、实体及其之间的关系,将互联网信息内容表达成更接近人类认知世界的形式,从而使计算机具备类脑推理能力。同时,阿里还宣布打算用一年时间初步建成首个开放的知识引擎服务平台
ModelScope推出了预训练大语言模型推理引擎DashInfer,支持C和Python语言接口,可在多种CPU架构上高效推理大模型。DashInfer采用CRuntime编写,支持连续批处理和多NUMA推理,能充分利用服务器级CPU的算力,为推理14B及以下的LLM模型提供更多硬件选择。性能测试结果表明,DashInfer在ARM和x86CPU上具有良好的推理性能,能够有效提升大模型推理效率。