首页 > 传媒 > 关键词  > 生成式AI最新资讯  > 正文

戴尔Precision工作站:助力客户更有效地使用GenAI大语言模型

2024-04-02 15:41 · 稿源: 站长之家用户

本实用指南将帮助用户了解,如何配置个人电脑才能更有效地使用生成式AI大语言模型

生成式人工智能(GenAI)彻底改变了计算世界,戴尔科技的用户都开始考虑借助大语言模型(LLM)去开发能够提升其公司生产力、效率和创新力的新功能。戴尔科技拥有全球最丰富的AI基础设施产品组合,从云到客户端设备一应俱全[1],因此能够为用户提供满足其一切AI需求的端到端AI解决方案和服务。戴尔科技还提供专为助力AI工作负载而设计的硬件解决方案,包括工作站、高性能计算服务器、数据存储、云原生软件定义基础设施、网络交换机、数据保护、HCI和各种服务。但用户所面临的比较大问题之一是:如何确定一台PC能够与特定的LLM有效配合。戴尔科技将尝试解答这个问题。

首先应该掌握一些关于如何帮助PC处理LLM的基础知识。虽然AI例程可以在CPU或被称为NPU的新型专用AI回路中进行处理,但目前的主流仍然是在PC中使用NVIDIA RTX GPU进行AI处理,该GPU带有被称为“张量核心”(Tensor Core)的专用回路。RTX张量核心专门用于实现混合精度数学计算,而这是AI处理的核心。但进行数学运算只是需要考虑的因素之一,鉴于LLM潜在的内存占用量,还需要额外考虑可用的内存空间。要在GPU中较大程度地发挥AI性能,就必须将LLM处理加入到GPU VRAM。NVIDIA的GPU产品线在各种移动和固定工作站产品中都可以扩展,用户可以通过所提供的张量核心数量和GPU VRAM选项来轻松调整系统规模。请注意,某些固定工作站可以搭载多颗GPU来进一步扩大容量。

市场上出现的LLM数量和种类越来越多,但在确定硬件需求时,最需要考虑的因素之一是所选LLM的参数规模。以Meta AI的Llama-2LLM为例,该模型有70亿、130亿和700亿这三种不同的参数规模。一般来说,参数规模越大,LLM的准确性就越高,在一般知识应用中的适用性也就越强。

无论用户的目标是将基础模型原封不动地用于推理,还是根据具体的用例和数据进行调整,他们都需要了解LLM对机器的要求以及如何较好地管理模型。如果能够利用用户专有的数据开发和训练出针对特定用例的模型,那么用户的AI项目就能为其带来比较大的创新和回报。在使用LLM开发新功能和应用时,参数规模比较大的模型可能会对机器性能提出很高的要求,因此数据科学家们开发出了一些办法来帮助降低处理开销和管理LLM输出准确性。

量化就是其中的一种办法。该技术通过修改LLM内部参数(即权重)的数学精度来缩小LLM的规模。降低位精度会对LLM产生两方面的影响: 一是减少处理所占用的空间和对内存的需求, 二是影响LLM的输出准确性。量化可以看作是JPEG图像压缩,虽然压缩得越多,创建出的图像效率就越高,但在某些用例中可能会使图像变得模糊不清。

在实际应用中,如果用户想要运行量化为4位精度的Llama-2模型,可以考虑戴尔Precision3000和5000系列的多款移动工作站。

戴尔科技全新的3000和5000系列移动工作站集成了CPU,NPU,GPU多处理器组合,能够优化100多款应用中的AI性能,使其运行更快、能效更高。例如,它们可支持全新的协作体验,如AI驱动的视频会议,提供背景模糊、面部取景和视线纠正等功能。NPU能有效地卸载CPU或GPU上的任务,使功耗降低高达40% 。这意味着电池续航时间更长,用户无需频繁充电即可持续工作。此外,新款CPU还配备了速度更快的集成显卡,为更多媒体密集型AI工作负载提供卓越性能。CPU、NPU和GPU协同工作,共同打造灵活、高性能且节能的AI引擎,为用户带来较好体验。

此外,全新戴尔Precision3490和3590移动工作站比较高可搭载NVIDIA RTX500Ada图形处理器,提升专业用户的工作效率。Precision3591则专注于设计与创作领域,轻松应对入门级2D和3D CAD应用。而Precision5000系列移动工作站将创意应用的性能提升到了新的高度,Precision5690凭借其小巧的16英寸机身,为用户带来出色的创意应用体验。它具备广阔的视野、出色的便携性和强大的应用性能,比较高可配备NVIDIA RTX5000图形处理器。同时,机身小巧但强大功能的Precision5490作为一款14英寸超便携设备,在性能和体验方面也毫不逊色。

在更高精度(BF16)运行会增加对内存的需求,但戴尔科技的解决方案可以在任何精度上满足任何规模的LLM需求。戴尔Precision7960塔式工作站可支持多达四个NVIDIA 高性能GPU,其AI处理能力比上代产品高出80% 且每个GPU的VRAM高达48GB,而VRAM是处理GenAI大语言模型最关键的配置之一。

那么如何解决输出准确性所受到的影响?另一种被称为微调的技术可以通过在特定数据上重新训练LLM的参数子集来提高准确性,进而提高特定用例中的输出准确性。微调会调整某些已训练参数的权重,能够加快训练过程并提高输出准确性。通过将微调与量化相结合,就可以产生针对特定应用的小语言模型,这些模型非常适合部署到对AI处理能力要求较低的各种设备上。同样,如果开发人员想要对LLM进行微调,也可以放心地将Precision工作站作为构建GenAI解决方案过程中的沙盒。

在使用LLM时这些不同技术不会相互排斥。把它们结合在一起使用往往会带来更高的运行效率和准确性。

总之,LLM的规模以及哪些技术能够为有效使用LLM所需的计算系统配置提供理想参考都是关键的决定因素。戴尔科技坚信无论用户在其AI旅程中想要朝哪个方向发展,戴尔科技的台式机、数据中心等解决方案都将为其提供助力。

戴尔科技集团

戴尔科技集团致力于帮助企业和个人构建数字化未来,改进他们的工作、生活和娱乐方式,为客户提供面向数据时代全面和创新的产品、技术、解决方案及服务组合。

[1]  基于戴尔科技集团的内部分析,2023年8月。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 苹果自研AI模型难产:改用第三方大语言模型

    苹果可能会跟OpenAI或Anthropic合作,双方正在谈判讨论一项潜在交易,苹果希望调用OpenAI或Anthropic的第三方大语言模型来为Siri提供技术支持。 据悉,OpenAI或Anthropic正在训练适配苹果私有云计算服务器的模型,苹果也在进行测试,目前苹果发现Anthropic的AI模型最适合Siri,且与Anthropic初步讨论了一些财务条款,消息称Anthropic要求苹果每年支付数十亿美元的费用,且该费用会随时间�

  • Neousys宸曜科技亮相2025 Vision China(北京)

    2025年6月19-20日,北京机器视觉助力智能制造创新发展大会暨Vision+China2025在京成功举办。Neousys宸曜科技展示了多款边缘AI计算平台解决方案,包括:1)Nuvo-9160GC强固型AI推理平台,支持行为分析、安防监控等应用;2)NRU-230V-AWP自动驾驶计算平台,具备IP66防护和备用电源;3)基于NVIDIA Jetson的智能采集卡系列;4)Nuvo-10001系列高性价比嵌入式平台。产品覆盖机器视觉、自动驾驶、智能制造等领域,以宽温强固、无风扇设计满足严苛工业环境需求,获得现场观众高度评价。

  • 性能超OpenAI、Gemini!月之暗面发布首个自主强化学习Agent

    月之暗面(Moonshot AI)正式推出其首款Agent产品Kimi-Researcher(深度研究),并已启动小范围灰度测试。 该产品基于端到端自主强化学习(end-to-end agentic RL)技术打造,在HLE测试中表现优异,性能超越Claude 4 Opus、Gemini 2.5 Pro及OpenAI Deep Research,并与Gemini-Pro的Deep Research Agent持平。 Kimi-Researcher 是一款高度自主的智能研究助手,能够独立规划任务流程并交付完整结果。与其他Agent不�

  • 产学研协同赋能乡村振兴:众趣科技与清华大学乡村振兴工作站共启空间智能新篇章

    众趣科技与清华大学乡村振兴工作站合作,通过捐赠SPACCOM X3 Pro 3D激光扫描仪,探索"技术赋能教育、数据驱动研究、实践反哺社会"的创新模式。该合作聚焦四大应用场景:1)构建乡村三维数字底座,为科学规划提供精准空间数据;2)可视化研究助力规划设计;3)赋能闲置农房改造;4)建立物联网监测评估体系。项目将前沿三维扫描技术与建筑学科教育深度融合,培养复合型人才,同时推动乡村数字化建设标准探索,为乡村振兴注入科技动能,开辟高质量发展新路径。

  • AI日报:豆包大模型1.6发布;OpenAI推o3-pro模型、o3价格暴降80%;Figma官方MCP重磅上线

    【AI日报】今日AI领域重要动态:1)火山引擎发布豆包大模型1.6和视频生成模型Seedance1.0pro,性能显著提升;2)OpenAI推出o3-pro模型,专注可靠性但响应较慢;3)Figma推出Dev Mode MCP服务,实现设计到代码一键转换;4)Krea AI发布图像生成模型Krea1,解决传统AI绘图问题;5)火山引擎豆包日调用量突破16.4万亿次;6)法国Mistral发布推理模型Magistral;7)苹果系统整合ChatGPT图像生成功能;8)OpenAI大幅下调o3价格80%并推出o3-pro;9)Hugging Face开源榜单显示中国团队Qwen与DeepSeek进入全球前15;10)阿里开源MaskSearch框架,提升AI解决复杂问题能力。

  • “淘宝Vision”今年将进军线下 未来旗舰项目已在阿里总部试运行

    淘宝空间购物应用淘宝Vision”今年将进军线下。 目前,淘宝正在酝酿一个未来旗舰店项目,把线上沉浸式购物体验和线下商业模式做进一步融合。 据业内人士透露:淘宝Vision未来旗舰店首家概念店已经在阿里巴巴总部试运行,首批展示了小米SU7虚拟试车、智能家居等场景,接受邀约制体验。” 他还表示:淘宝最新的3D人工智能数字人也会亮相,主要应用于电商导购场景,首

  • 自研大模型遥遥无期!苹果Siri考虑用外援:转向OpenAI合作

    据媒体报道,知名爆料人马克古尔曼透露,苹果正重新评估其人工智能发展策略,考虑放弃自研大语言模型(LLM)计划,转而与OpenAI展开合作谈判。 若合作达成,苹果原定于2026年推出的基于自研Apple Foundation Models”的Siri升级计划可能被搁置,这一变动或引发行业广泛关注。 目前,由苹果AI负责人约翰詹南德雷亚(John Giannandrea)主导的LLM Siri”项目仍在进行中,但进展不及预�

  • Agent成了腾讯AI最大的牌面

    抓住DeepSeek带来的契机扭转AI领域的竞争态势之后,腾讯围绕AI应用的布局正在快速深化。 元宝、ima等原生AI应用是腾讯进行探索的最前线。腾讯元宝通过大规模市场投入获得用户增长后,继续拓展了更多能力,包括将元宝放入微信好友列表,打通与腾讯地图、腾讯文档的连接,以及上线Chrome浏览器插件。腾讯管理层目前还在观察用户对这些新增功能的反馈,判断哪些功能可以�

  • 思必驰RTOS大模型解决方案丨当玩具遇上AI,陪伴更有温度

    文章介绍了多款AI陪伴机器人产品,如LOVOT、Moflin、FoloToy等,它们通过创新交互方式引领消费新潮流。针对不同场景需求,思必驰推出RTOS大模型解决方案,融合智能对话技术与DFM-2大模型,整合第三方内容资源,赋予产品情感陪伴与寓教于乐功能。该方案具备智能打断、上下文记忆、多轮对话等能力,实现自然流畅的人机交互。在儿童教育领域,AI玩具可成为智慧伙伴,提供个性化学习支持。未来,AI赋能玩具将解锁更多应用场景,持续优化用户体验。

  • 荣耀MagicPad 3入网:13英寸LCD大屏+骁龙8 Gen3

    荣耀旗下一款型号为CGA-W00的新机获得认证,支持66W快充,爆料称该机正式命名为荣耀MagicPad3。 预计该机会与荣耀Magic V5同台发布,在本月下旬正式登场。