近几年中各大芯片厂的新品都升级缓慢,现在苹果也开始自研CPU,主管M系列芯片的苹果平台架构和硬件技术副总裁Tim Millet日前在采访中提到,对于M2芯片,苹果永远不会每次只是榨取几个点的提升,也就是说苹果不会挤牙膏。
Millet表示,苹果M2系列芯片会通过技术极限来获得领先,苹果不会把20%的性能提升分摊到三年内完成,会直接在一年内实现。
(举报)
11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
苹果M3Ultra是重新设计的芯片不是由两颗M3Max拼接成。上一代芯片M2Ultra采用了UltraFusion架构,将两块M2Max芯片拼接到一起,拥有1340亿个晶体管,比上一代M1Ultra多出200亿个。这颗芯片由MacStudio首发搭载,新品最快会在今年年中登场。
日前,据名记马克古尔曼爆料,苹果正加快研发M4系列芯片,该芯片将主打AI功能。苹果计划今年底到明年初发布多款搭载M4芯片Mac,包括全新iMac、低端14英寸MacBookPro、高端14英寸和16英寸MacBookPro以及Macmini。AI将成为PC下一步重点突破口,其他Windows厂商也都在纷纷开发AIPC。
三星推出2024款M5/M7/M8三款显示器,均内置AI芯片,极大地提升了用户的使用体验。在硬件配置上,三款显示器均表现出色。当用户佩戴GalaxyWatch进行运动时,运动的实时数据可以传输至显示器上,方便用户随时查看自己的运动状态。
嘉楠科技凭借勘智K230芯片的优异表现在达摩院于深圳举办的2024玄铁RISC-V生态大会上荣获“2024年度玄铁优选芯片奖”,并与来自中国科学院软件研究所、中国电信研究院等全球数百家企业及机构一起,带来了玄铁RISC-V在电力、5G通信、机器人、金融等不同行业的应用创新。嘉楠科技勘智K230芯片是一款基于RISC-V架构的端侧AIoT芯片,具有高精度、低延迟、高性能、超低功耗、快速启动等特点,可广泛适用于各类智能产品场景,如边缘侧大模型多模态接入终端、3D结构光深度感知模型、交互型机器人、开源硬件、智能制造、智能家居、智能教育硬件等众多领域。开发者可以通过访问嘉楠科技开发者社区获取勘智K230芯片SDK相关信息。
快科技4月16日消息,在工信部发布的第382批《道路机动车辆生产企业及产品公告》变更扩展公示中,出现了问界M7改款车型的身影。在最新的工信部申报信息中,问界M7带来了几处改动,目前已知主要是外观上的变化,其中最明显的改成了封闭式前脸,进气格栅改成小嘴,与问界新M5、问界M9等颇为类似。资料还显示,激光雷达也显示有旧的激光雷达和192线激光雷达。此外,申报信息显示新车可选装的其他部件还包括行李架、多款轮辋、窗框深色饰条、电动踏板等。目前在售的问界新M7于2023年9月12日正式上市,提供5种配置车型以及五座、六座两种布局可?
微软将于5月20日推出全新的Windows11设备,其中包括SurfacePro10和SurfaceLaptop6。这两款设备将搭载高通骁龙XElite处理器,据微软内部文件透露,微软对高通芯片非常有信心,认为它的性能比M3MacBookAir更快。凭借强悍的性能支持,微软Surface系列新品值得期待。
苹果正准备为其Mac系列产品引入一款新的芯片处理器,旨在提升销售并突显人工智能。公司可能很快开始生产M4处理器,该芯片将推出三种主要型号。这标志着苹果自2023年5月以来的最佳表现。
【新智元导读】苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。会读心的Siri想不想要?今天,苹果发布了自家的最新模型ReALM,仅需80M参数,就能在上下文理解能力上打平甚至超越GPT-4!论文地址:https://arxiv.org/pdf/2403.20329.pdfReALM可以将任何形式的上下文转换为文本来进行理解,比如解析屏幕、多轮对话、以及上下文中的引用。随着模型大小的增加,所有数据集的性能都有所提高屏幕相关数据集的差异最为明显,因为这项任务在本质上更加复杂。
新款AITO问界M5将于5月23日在北京举行上市发布会。改款主要集中在细节升级和配置变化方面。途灵智能底盘、CDC以及空气悬架有望搭载到车上。
鸿蒙智行官方今日宣布,问界新M5开启预售。到今日晚间,预售仅12小时,问界新M5的累计订单就已突破10000台,成功预定爆款身份。问界新M7发布后大获成功,预定量一度超过10万台最新到来的问界新M5,也有望复刻问界新M7的销量神话。
NextChat是一个多功能的AI聊天服务平台,支持与领先的大型语言模型(LLMs)兼容,允许用户轻松部署团队范围内的AI辅助工具。它提供了一个优雅的用户界面,集中管理所有数据,并提供统计追踪团队AI使用情况的功能。此外,它还包括反馈分析工具,帮助用户聆听并分析其受众。NextChat支持OpenAI和Gemini模型,是一个面向所有人的AI基础设施,旨在提供个性化的AI聊天服务。
Spark是一款智能、专注的电子邮件应用,帮助您掌控收件箱。通过智能筛选,快速了解重要内容,并快速清理其余邮件。Spark还提供AI助手帮助您快速编写完美的电子邮件。
Chatbox是一个易于使用的人工智能解决方案,支持多平台,帮助提升工作和学习效率。它具备本地数据存储,确保隐私和轻松访问,同时支持多种尖端人工智能模型,提供多样化、适应性和智能化的用户互动。Chatbox还具备强大的提示功能,释放创造力,支持Markdown、引用、令牌估计等功能,为思维提供广阔的发展空间。
ChatX是一个基于先进AI技术的客户端应用,它通过高速API服务器提供极速体验,支持iPhone、iPad和macOS设备间的云同步。用户可以利用它完成各种AI任务,如文本生成、图片生成等,显著提高工作效率。产品的主要优点包括高速访问、自定义功能、经济的按字数消耗模式以及丰富的高级功能,如AI参数微调、Siri朗读等。ChatX的背景是AI技术的快速发展和用户对于高效、智能工具的需求。目前,产品在Mac App Store上免费提供,但提供App内购买项目。
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
EmojiTell是一个创新的在线服务,可以将文本翻译成表情组合,增加沟通的趣味性和表现力。它由一支对表情符号充满热情的开发者和设计师团队开发,旨在通过表情符号的力量,让信息传递更加生动和个性化。
Perplexica是一个开源的AI驱动搜索引擎,它不仅搜索网络,还理解您的问题。它使用先进的机器学习算法,如相似性搜索和嵌入,来优化结果,并提供引用来源的清晰答案。使用SearxNG保持最新和完全开源,确保您始终获得最新信息,同时不损害您的隐私。
FaceChain是一个深度学习工具链,由ModelScope提供支持,能够通过至少1张肖像照片生成你的数字孪生体,并在不同设置中生成个人肖像(支持多种风格)。用户可以通过FaceChain的Python脚本、熟悉的Gradio界面或sd webui来训练数字孪生模型并生成照片。FaceChain的主要优点包括其生成个性化肖像的能力,支持多种风格,以及易于使用的界面。
HuggingFace镜像站是一个非盈利性项目,旨在为国内的AI开发者提供一个快速且稳定的模型和数据集下载平台。通过优化下载过程,减少因网络问题导致的中断,它极大地提高了开发者的工作效率。该镜像站支持多种下载方式,包括网页直接下载、使用官方命令行工具huggingface-cli、本站开发的hfd下载工具以及通过设置环境变量来实现非侵入式下载。
WebLlama是一个基于Meta Llama 3构建的代理,专门为网页导航和对话进行了微调。它旨在构建有效的以人为中心的代理,帮助用户浏览网页,而不是取代用户。该模型在WebLINX基准测试中超越了GPT-4V(零样本)18%,展示了其在网页导航任务中的卓越性能。
GitHub Copilot for Infrastructure as Code(简称Infra Copilot)是一个利用机器学习技术帮助基础设施专业人员自动生成精确基础设施代码的工具。它通过理解基础设施任务的上下文,允许专业人员使用自然语言表达需求,并接收相应的代码建议。Infra Copilot不仅简化了基础设施即代码(IaC)的开发过程,还确保了跨环境和项目的一致性,加速了新团队成员的上手和学习过程,显著提高了工作效率并节约了时间。
LLaVA++是一个开源项目,旨在通过集成Phi-3和LLaMA-3模型来扩展LLaVA模型的视觉能力。该项目由Mohamed bin Zayed University of AI (MBZUAI)的研究人员开发,通过结合最新的大型语言模型,增强了模型在遵循指令和学术任务导向数据集上的表现。
PhysDreamer是一个基于物理的方法,它通过利用视频生成模型学习到的对象动力学先验,为静态3D对象赋予交互式动力学。这种方法允许在缺乏真实物体物理属性数据的情况下,模拟出对新颖交互(如外力或代理操作)的真实反应。PhysDreamer通过用户研究评估合成交互的真实性,推动了更吸引人和真实的虚拟体验的发展。
AI快站是一个为AI开发者设计的服务平台,提供HuggingFace模型的免费加速下载,解决大模型下载缓慢和断开的问题,支持高达4M/s的下载速度,大幅减少等待时间,提高开发效率。
Llama-3 8B Instruct 262k是一款由Gradient AI团队开发的文本生成模型,它扩展了LLama-3 8B的上下文长度至超过160K,展示了SOTA(State of the Art)大型语言模型在学习长文本操作时的潜力。该模型通过适当的调整RoPE theta参数,并结合NTK-aware插值和数据驱动的优化技术,实现了在长文本上的高效学习。此外,它还基于EasyContext Blockwise RingAttention库构建,以支持在高性能硬件上的可扩展和高效训练。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
Interactive3D是一个先进的3D生成模型,它通过交互式设计为用户提供了精确的控制能力。该模型采用两阶段级联结构,利用不同的3D表示方法,允许用户在生成过程的任何中间步骤进行修改和引导。它的重要性在于能够实现用户对3D模型生成过程的精细控制,从而创造出满足特定需求的高质量3D模型。
GraphRAG (Graphs + Retrieval Augmented Generation) 是一种通过结合文本提取、网络分析以及大型语言模型(LLM)的提示和总结,来丰富理解文本数据集的技术。该技术即将在GitHub上开源,是微软研究项目的一部分,旨在通过先进的算法提升文本数据的处理和分析能力。
Qwen1.5-110B是Qwen1.5系列中规模最大的模型,拥有1100亿参数,支持多语言,采用高效的Transformer解码器架构,并包含分组查询注意力(GQA),在模型推理时更加高效。它在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。该模型的发布展示了在模型规模扩展方面的巨大潜力,并且预示着未来通过扩展数据和模型规模,可以获得更大的性能提升。