11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
Meta最近发布了LLama3,这是一款新的大型语言模型,用于实现更安全、更准确的生成式人工智能体验。除了LLM,Meta还推出了LlamaGuard2、CodeShield和CyberSecEval2等信任和安全工具,以帮助确保符合行业和用户安全期望。随着400亿参数显示出更高的准确性,可以推断出更高的AI硬件需求不会很快减少。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、腾讯SaaS产品智能化升级全面接入混元模型腾讯宣布旗下协作SaaS产品全面接入混元模型,实现软件服务智能化。这些技术提升了视频分割精度和效率,降低了计算复杂度,对多个
微软推出了一款名为Phi-3系列的小型AI模型,该模型在AI领域引起了广泛关注。Phi-3系列中的Phi-3-mini模型,仅拥有3.8B参数,却在多项基准测试中超越了拥有8B参数的Llama3模型。微软的这一举措在开源社区中引起了热烈讨论,许多网友认为这给OpenAI带来了压力,需要OpenAI尽快推出GPT-3.5的后继产品以维持其在AI领域的领先地位。
苹果公司正在开发自己的大型语言模型。这款模型将能够在设备上本地运行,从优先考虑速度和隐私保护。苹果更广泛的人工智能战略预计将在6月份的WWDC上与主要软件更新预览一起公布。
斯坦福大学研究人员发布的Octopusv2模型引起了开发者社区的极大关注,其20亿参数的模型一夜下载量超过2k。这一模型可以在智能手机、汽车、个人电脑等端侧设备上运行,并在准确性和延迟方面表现超越了GPT-4,同时将上下文长度减少了95%。设备端AI智能体时代即将到来,Octopusv2的发布为这一趋势注入了新的活力。
MobiLlama是一个开源的小型语言模型,专门针对移动设备运行训练的LLM,拥有5亿个参数。该模型的设计旨在满足资源设定计算的需求,同时注重在提高性能的同时降低资源消耗。如果用户需要一个小型语言模型来运行在资源中受在有限的环境中,MobiLlama可能是一个非常有用的选择。
在巴塞罗那世界移动大会上,高通公司推出了多项新技术。该公司发布了QualcommAIHub,这是一款新工具,允许开发人员在高通设备上运行AI模型。这些新技术可以大规模商业化和民主化设备端AI,为用户带来更个性化、更智能的体验。
今天凌晨,谷歌宣布推出全球性能最强大、轻量级的开源模型系列Gemma。该模型共分为分为2B和7B两种尺寸版本,2B版本甚至可直接在笔记本电脑上运行。并且还实现了跨设备兼容,可以在笔记本电脑、台式机、物联网、移动设备和云端等多个主流设备类型上运行,支持广泛的AI功能。
今天下午,在在2024傅盛的开年AI大课暨猎户星空企业应用大模型发布会上,猎豹移动董事长兼CEO、猎户星空董事长傅盛宣布猎户星空大模型发布。猎户星空大模型专为企业应用生,该模型通过140亿参数实现了千亿参数大模型才能实现的效果,面向素质教育等七大应用领域进行微调,且可以在千元显卡算力上运行。猎户星空百亿参数大模型是企业标配首选,让AI不再只是一场技术狂欢。
生成式大语言模型因其在各种任务中的出色表现闻名,包括复杂的自然语言处理、创意写作、问答和代码生成。LLM已在易于使用的本地系统上运行,包括带有消费级GPU的家用PC,以改善数据隐私、可定制模型并降低推理成本。PowerInfer显着提高了LLM推理速度,表明其作为在GPU功能有限的台式电脑上执行高级语言模型的解决方案的潜力。
供本地使用的LLM通常作为一组权重分布在数GB文件中。这些软件不能直接单独使用,这通常使得它们比其他软件更难分发和运行。这些权重文件本身不能直接使用,需要通过特定的软件框架或环境来加载和运行,这使得与其他类型的软件相比,它们的分发和运行更加复杂。
三星正准备在年底前揭晓其全新Windows笔记本电脑阵容。GalaxyBook4系列的规格和产品图片已经几乎完全曝光。在WindowsSoC中集成强大的NPU有潜力改变用户在便携式Windows机器上的工作方式。
11月27日,数澈软件Seal宣布云原生统一应用平台Walrus0.4正式发布,这是一个里程碑式的版本更新。新版本采用了全新的应用模型——仅需进行单一配置,即可在多种模态的基础设施及环境中运行包括应用服务及周边依赖资源在内的完整应用系统。轻松上手Seal团队秉持着一以贯之的开源理念和开箱即用的产品设计思路,Walrus基于Apache2.0许可完全开源,并且仅需一行命令您就可以在已安装Docker的电脑上部署Walrus:sudodockerrun-d--privileged--restart=always-p80:80-p443:443--namewalrussealio/walrus:v0.4.0如果您喜欢这个项目,欢迎在Github上为我们点亮星星。
联发科最新发布的一代旗舰级5G生成式AI移动芯片天玑9300,其创新的全大核架构设计与最新的AI处理器APU等联发科特色技术的合并,为生成式AI应用提供了强大的动力,以实现引人入胜、丰富多样的生成式AI体验。联发科也与大量的AI企业在业内进行深入合作,共同在移动平台上构造了一个充满活力的AI生态。联发科等生成式AI的领先者们正通过不断地技术革新和适当的生态布局,大力推动混合式AI计算,并为端侧生成式AI部署设计出了一套独自且高效的方法,全力以赴推进生成式AI在端侧的普及,旨在让更多的用户享受到端侧AI的个性化服务,带来全新的全方位智能体验,实现科技成果惠及全社会。
爆料人Tech_Reve在社交平台声称,苹果公司正在使用大语言模型将Siri完全改造成终极虚拟助理”,并打算将其开发成最强大的人工智能应用程序”。Tech_Reve表示,苹果正在积极进行中这项综合开发工作,首款产品预计将在WWDC2024上亮相,并计划成为iPhone16及后续机型的标配。苹果打算加码AI,想必也是不少人所期待的,升级后的Siri据说在本地运行响应时间更快、不需要网络连接,且更具隐私性。
在移动芯片领域,联发科的天玑9300以其强大的生成式AI能力引领潮流。芯片支持最大330亿参数的大模型,并通过端侧LoRA融合实现本地扩展,能在手机上即时生成虚拟数字分身。天玑9300的发布为移动端生成式AI带来了全新的体验,成为行业引领者。
在科技飞速发展的今天,联发科天玑9300的发布会标志着手机行业迈出了崭新的一步。天玑9300以其全大核CPU架构引领潮流,打破固有模式,为用户带来了“高智能、高性能、高能效、低功耗”的使用体验。首款搭载天玑9300的终端vivoX100将于11月13日正式发布,相信它的表现将再次令人瞩目!
联发科技发布了天玑9300旗舰5G生成式AI移动芯片,采用台积电第三代4nm制程。该芯片预计于2023年底上市。MediaTek的AI开发平台NeuroPilot构建了丰富的AI生态,支持Android、MetaLlama2、百度文心一言大模型、百川智能百川大模型等前沿主流AI大模型,完整的工具链助力开发者在端侧快速且高效地部署多模态生成式AI应用,为用户提供文字、图像、音乐等终端侧生成式AI创新体验。
在骁龙峰会上,高通公司发布了骁龙XElite芯片,它被宣称为全球性能最强的CPU。这款芯片专为PC笔记本设计,不仅在性能方面创下新纪录功耗表现也非常出色。高通作为AI领域的重要参与者,将继续推动AI技术的发展,并与各种终端设备、计算架构和生态系统合作,引领AI新时代的到来。
Meta、麻省理工学院和卡内基梅隆大学的研究人员最近发表的一篇新论文介绍了一项名为StreamingLLM的创新技术,旨在解决大型语言模型在长时间对话中性能下降的问题。LLMs如OpenAI的ChatGPT和Meta的Llama2在当今的人工智能领域备受关注,但它们都面临一个共同的挑战,即在与用户的对话中始终提供高质量的响应,无论对话持续多长时间或交换的对话数量如何。StreamingLLM技术为LLMs在长时间对话中保持高性能提供了创新的解决方案,有望在许多领域,特别是需要持续不断地与用户交互的应用中得到广泛应用。
9月26日,位于加利福尼亚帕洛阿尔托的SambaNovaSystems公司宣布推出一款革命性的新芯片,名为SN40L。这款芯片将为SambaNova的全栈大语言模型平台SambaNovaSuite提供动力,并具有革命性的内部设计:在内部,它提供了密集和稀疏计算,同时包括大内存和快速内存,使其成为一款真正的“智能芯片”。还提供了推理优化系统,配备了3层数据流内存,以实现高带宽和高容量。
人工智能芯片初创公司SambaNovaSystems在周二推出了一款新的半导体芯片,旨在让其客户以更低的总成本使用更高质量的人工智能模型。这家位于加利福尼亚州帕洛阿尔托的公司表示,SN40L芯片旨在运行比OpenAI的ChatGPT高级版使用的大两倍以上的模型。SambaNova的芯片由台积电负责制造。
OnPrem.LLM是一个Python包,它可以帮助用户在本地机器上使用非公开数据运行大型语言模型。它受privateGPT仓库和SimonWillison的LLM命令行实用程序的启发,旨在帮助将本地LLM集成到实际应用中。OnPrem.LLM是一个非常有价值的工具,可以推动本地环境的LLM应用落地。
web-ai是一个开源的TypeScript库,使开发者可以直接在浏览器或Node.js中运行现代深度学习模型。它提供了一种无需复杂服务器端基础设施或依赖第三方API的方式,将AI能力集成到Web应用程序中。它让开发者可以在不受基础设施问题困扰的情况下进行AI实验。
OpenInterpreter是一个开源的项目,可以让语言模型在本地环境中运行代码。它提供了一个类似ChatGPT的自然语言界面,用户可以用它完成很多实用的任务,比如处理文件、控制浏览器、分析数据等等。这是语言模型技术继续向日常生活渗透的一个标志性成果。
平头哥在2023RISC-V中国峰会上发布了玄铁RISC-V高性能全栈技术,并宣布推出首个自研RISC-VAI平台。该平台通过软硬件深度协同,提升超过80%的性能,并支持运行170余个主流AI模型。平头哥还与合作伙伴推出了玄铁系列开发板,吸引更多开发者参与。
高通周三公布了第三季度的财报,超过了华尔街的预期,但第四季度的收入和指导不及预期。高通的股票在盘后交易中下跌了超过6%。希望将其处理器定位为非常适合人工智能的「边缘」设备不是「云端」。
在今日的复旦大学智能计算平台暨首届科学智算高端论坛上,国内高校最大的科研智能计算平台CFFF的“切问”一号和“近思”一号在复旦大学正式上线。这一新型的“大科学装置”能够高效地进行超千卡的并行智能计算,并支持千亿参数的大模型加速运行。在上线仪式上,复旦大学与阿里巴巴集团、中国电信分别签署了战略合作协议,共同建设全国高校中算力最强的专用高性能智能计算平台。
Meta最近宣布推出了一款新的大型语言模型LLaMA-13B,该模型的参数规模虽然比OpenAI的GPT-+3+模型小,但表现更为出色只需要单张显卡即可运行,这使得采用普通用户的硬件也有可能提供与ChatGPT相似的AI聊天机器人性能。LLaMA语言模型的规模从+70+亿到+650+亿个参数OpenAI+GPT-+3+模型有+1750+亿个参数。Nebuly+AI就推出了基于人类反馈强化学习的LLaMA+AI聊天机器人的首个开源实现ChatLLaMA。
Stable+Diffusion可以说是世界上最先进的生成式+AI模型,不过目前它通常只在云端运行。那如果同样的模型是否可以就在我们口袋里的智能手机上运行呢?这就是高通工程师已经解决的挑战。边缘+AI+处理在运行+Stable+Diffusion+和其他生成+AI+模型的同时确保用户隐私,因为输入文本和生成的图像永远不需要离开设备——这对于消费者和企业应用程序的采用来说是一件很重要的事情。