首页 > 传媒 > 关键词  > 生成式AI最新资讯  > 正文

戴尔Precision工作站:助力客户更有效地使用GenAI大语言模型

2024-04-02 15:41 · 稿源: 站长之家用户

本实用指南将帮助用户了解,如何配置个人电脑才能更有效地使用生成式AI大语言模型

生成式人工智能(GenAI)彻底改变了计算世界,戴尔科技的用户都开始考虑借助大语言模型(LLM)去开发能够提升其公司生产力、效率和创新力的新功能。戴尔科技拥有全球最丰富的AI基础设施产品组合,从云到客户端设备一应俱全[1],因此能够为用户提供满足其一切AI需求的端到端AI解决方案和服务。戴尔科技还提供专为助力AI工作负载而设计的硬件解决方案,包括工作站、高性能计算服务器、数据存储、云原生软件定义基础设施、网络交换机、数据保护、HCI和各种服务。但用户所面临的比较大问题之一是:如何确定一台PC能够与特定的LLM有效配合。戴尔科技将尝试解答这个问题。

首先应该掌握一些关于如何帮助PC处理LLM的基础知识。虽然AI例程可以在CPU或被称为NPU的新型专用AI回路中进行处理,但目前的主流仍然是在PC中使用NVIDIA RTX GPU进行AI处理,该GPU带有被称为“张量核心”(Tensor Core)的专用回路。RTX张量核心专门用于实现混合精度数学计算,而这是AI处理的核心。但进行数学运算只是需要考虑的因素之一,鉴于LLM潜在的内存占用量,还需要额外考虑可用的内存空间。要在GPU中较大程度地发挥AI性能,就必须将LLM处理加入到GPU VRAM。NVIDIA的GPU产品线在各种移动和固定工作站产品中都可以扩展,用户可以通过所提供的张量核心数量和GPU VRAM选项来轻松调整系统规模。请注意,某些固定工作站可以搭载多颗GPU来进一步扩大容量。

市场上出现的LLM数量和种类越来越多,但在确定硬件需求时,最需要考虑的因素之一是所选LLM的参数规模。以Meta AI的Llama-2LLM为例,该模型有70亿、130亿和700亿这三种不同的参数规模。一般来说,参数规模越大,LLM的准确性就越高,在一般知识应用中的适用性也就越强。

无论用户的目标是将基础模型原封不动地用于推理,还是根据具体的用例和数据进行调整,他们都需要了解LLM对机器的要求以及如何较好地管理模型。如果能够利用用户专有的数据开发和训练出针对特定用例的模型,那么用户的AI项目就能为其带来比较大的创新和回报。在使用LLM开发新功能和应用时,参数规模比较大的模型可能会对机器性能提出很高的要求,因此数据科学家们开发出了一些办法来帮助降低处理开销和管理LLM输出准确性。

量化就是其中的一种办法。该技术通过修改LLM内部参数(即权重)的数学精度来缩小LLM的规模。降低位精度会对LLM产生两方面的影响: 一是减少处理所占用的空间和对内存的需求, 二是影响LLM的输出准确性。量化可以看作是JPEG图像压缩,虽然压缩得越多,创建出的图像效率就越高,但在某些用例中可能会使图像变得模糊不清。

在实际应用中,如果用户想要运行量化为4位精度的Llama-2模型,可以考虑戴尔Precision3000和5000系列的多款移动工作站。

戴尔科技全新的3000和5000系列移动工作站集成了CPU,NPU,GPU多处理器组合,能够优化100多款应用中的AI性能,使其运行更快、能效更高。例如,它们可支持全新的协作体验,如AI驱动的视频会议,提供背景模糊、面部取景和视线纠正等功能。NPU能有效地卸载CPU或GPU上的任务,使功耗降低高达40% 。这意味着电池续航时间更长,用户无需频繁充电即可持续工作。此外,新款CPU还配备了速度更快的集成显卡,为更多媒体密集型AI工作负载提供卓越性能。CPU、NPU和GPU协同工作,共同打造灵活、高性能且节能的AI引擎,为用户带来较好体验。

此外,全新戴尔Precision3490和3590移动工作站比较高可搭载NVIDIA RTX500Ada图形处理器,提升专业用户的工作效率。Precision3591则专注于设计与创作领域,轻松应对入门级2D和3D CAD应用。而Precision5000系列移动工作站将创意应用的性能提升到了新的高度,Precision5690凭借其小巧的16英寸机身,为用户带来出色的创意应用体验。它具备广阔的视野、出色的便携性和强大的应用性能,比较高可配备NVIDIA RTX5000图形处理器。同时,机身小巧但强大功能的Precision5490作为一款14英寸超便携设备,在性能和体验方面也毫不逊色。

在更高精度(BF16)运行会增加对内存的需求,但戴尔科技的解决方案可以在任何精度上满足任何规模的LLM需求。戴尔Precision7960塔式工作站可支持多达四个NVIDIA 高性能GPU,其AI处理能力比上代产品高出80% 且每个GPU的VRAM高达48GB,而VRAM是处理GenAI大语言模型最关键的配置之一。

那么如何解决输出准确性所受到的影响?另一种被称为微调的技术可以通过在特定数据上重新训练LLM的参数子集来提高准确性,进而提高特定用例中的输出准确性。微调会调整某些已训练参数的权重,能够加快训练过程并提高输出准确性。通过将微调与量化相结合,就可以产生针对特定应用的小语言模型,这些模型非常适合部署到对AI处理能力要求较低的各种设备上。同样,如果开发人员想要对LLM进行微调,也可以放心地将Precision工作站作为构建GenAI解决方案过程中的沙盒。

在使用LLM时这些不同技术不会相互排斥。把它们结合在一起使用往往会带来更高的运行效率和准确性。

总之,LLM的规模以及哪些技术能够为有效使用LLM所需的计算系统配置提供理想参考都是关键的决定因素。戴尔科技坚信无论用户在其AI旅程中想要朝哪个方向发展,戴尔科技的台式机、数据中心等解决方案都将为其提供助力。

戴尔科技集团

戴尔科技集团致力于帮助企业和个人构建数字化未来,改进他们的工作、生活和娱乐方式,为客户提供面向数据时代全面和创新的产品、技术、解决方案及服务组合。

[1]  基于戴尔科技集团的内部分析,2023年8月。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 维谛(Vertiv)宣布收购生成式AI软件领军企业WaylayNV

    维谛技术(Vertiv)宣布收购比利时生成式AI软件企业Waylay NV,旨在提升关键数字基础设施的运营智能化水平、系统优化能力及服务体验。此次收购将整合Waylay先进的AI驱动自动化平台,帮助客户实现数据中心电力与热管理系统的实时监控、预测性维护和动态优化,应对AI工作负载快速增长的需求。维谛CEO表示,这将加速公司智能化基础设施愿景的实现,助力客户提升运营效率与系统韧性。

  • 降低创作门槛!爱诗科技新一代生成式大模型加速AI视频大众化

    爱诗科技8月27日发布新一代AI视频生成模型PixVerse V5,实现秒级高质量视频生成,支持360P至1080P分辨率。新模型在真实度、灵活性及生成速度上显著提升,覆盖人物、二次元、商业广告等多场景创作。同步上线Agent创作助手,降低使用门槛,用户无需专业技巧即可一键生成专业级视频。该技术推动AI视频从专业工具走向大众化应用,加速行业落地。

  • AI日报:智谱AI发布AutoGLM 2.0;腾讯元宝接入腾讯视频;字节发布开源大语言模型 Seed-OSS

    本期AI日报聚焦多项AI技术突破:智谱发布革命性语音代理AutoGLM 2.0,实现全平台语音操控;腾讯元宝接入视频平台提升观影便捷性;字节跳动开源大模型Seed-OSS专注长文本处理;速卖通AI代理助力新品推广效率翻倍;微软测试Copilot智能文件搜索功能;Liquid AI推出低延迟视觉语言模型LFM2-VL;OpenAI月收入首破10亿美元;谷歌Pixel 10系列全面升级AI功能,包括情感识别和实时翻译;Pixel Buds Pro 2引入AI手势控制;ElevenLabs发布支持70+语言的文本转语音API。

  • AI模型库哪个好?2025年主流AI模型选型指南与API成本对比推荐

    AI时代企业核心挑战已从“能否做AI”转向“如何高效集成AI能力”。AI模型库通过聚合全球主流模型,提供透明化成本与能力信息,帮助企业实现快速原型验证、精准选型和成本优化。这种基础设施降低技术门槛,使非技术背景决策者也能深度参与技术选型,加速创新迭代并降低试错成本。

  • CCF HPC China 2025 | KunLun HPC解决方案赋能多行业创新升级 并获全国产异构创新HPC解决方案奖

    8月13-16日,第21届CCF全国高性能计算学术年会在鄂尔多斯召开。本届大会以"绿动计算 超智融合"为主题,汇聚顶尖学术阵容,展示全产业链成果与前沿趋势。河南昆仑技术有限公司重点展示双生态硬件平台、极致性能软件平台、应用迁移调优服务等HPC全栈解决方案。其KunLun HPC解决方案实现100%国产化,兼容x86设备,具备东西方双生态兼容、高性能、高能效等五大特点,并获全国产异构创新HPC解决方案奖。昆仑技术同期发布KunLun V2系列服务器产品,助力科研转化和行业智能化升级。多位专家在主题论坛分享国产超算软件生态建设经验,强调需持续投入构建自主可控的超算软件生态。昆仑技术表示将持续深耕高性能计算领域,推动行业向智能高效方向发展。

  • 格创东智再获权威认可,AI Agent解决方案入选甲子光年报告

    格创东智凭借工业AI+Agent创新实践入选甲子光年智库《企业级AI+Agent(智能体)价值及应用报告》,继获评"星跃100"2025中国AI产业逐浪者奖项后再获头部科技媒体认可。报告指出,该公司在复杂工作流编排、工具集成和领域知识沉淀三大维度表现突出,成为工业智能化转型标杆案例。其自主研发的章鱼智脑Agentic+AI平台支持多Agent协同和复杂工作流编排,通过"模型即服务、知识可视化、流程任编排"重构工业AI开发范式。典型案例"设备知识库Agent小鲁班"为半导体企业实现故障处理效率提升62%,年增收数千万元。公司持续深化"工业智能体"等研发投入,累计投入超10亿元,沉淀工业机理模型35000+个,构建了AI、工业软件、智能装备三合一的全栈服务生态。预测到2026年认知型Agent将覆盖70%企业复杂决策场景,格创东智将持续引领工业AI解决方案创新,助力中国制造业数字化升级。

  • 再次定义行业创新范式 跃然创新推出全球首款端到端 AI 玩具 CocoMate

    8月26日,跃然创新推出全球首款搭载端到端语音模型的AI玩具CocoMate系列。该产品采用可拆卸设计,配备3000mAh电池,支持4G和WiFi网络。依托端到端技术,具备丰富交互表现和拟人化情感能力,支持多重唤醒、主题游戏及聊天室等功能。新品将于8月27日开售,首发包含奥特曼及原创IP“泡泡”等角色,后续还将上线财神爷、塔罗猫等系列,目标人群从儿童延伸至成年人。

  • MCP模型库全面指南:AI开发者如何利用超12万个服务构建多功能智能体应用?

    MCP协议正成为AI智能体开发的关键标准,其核心价值在于标准化、安全性和模块化。当前MCP生态虽繁荣但存在资源碎片化、质量参差不齐等痛点。AIbase MCP模型库通过一站式整合全球超12万服务,提供高可靠、低延迟的技术方案,大幅降低开发复杂度。该平台为企业级应用提供从概念验证到部署的全流程支持,帮助开发者聚焦核心业务逻辑,释放MCP生态的全部潜力。

  • 千匠数字化园区解决方案:以“技术+生态”,构建园区数字化新生态

    在数字经济浪潮下,数字化升级成为产业园区突破传统发展模式、构建新型竞争优势的关键路径。通过搭建数字化平台整合产业图谱、政策资源及企业服务,实现精准招商与客户匹配;引入上下游关键企业形成“链主企业+配套企业”协同发展格局,显著提升产业集聚效应。平台促进技术、人才、资本高效流动,基于数据洞察优化产业布局,推动区域经济从规模扩张向价值跃升转型。精细化管理和业务流程数字化使管理效率提升20%以上,运营成本降低15%,助力企业拓展市场边界,强化核心竞争力。政府通过平台获取核心数据,构建区域经济“数字画像”,为科学决策提供依据,引领高质量发展。

  • MCP服务新手完全指南:从零开始快速构建你的第一个AI智能体

    一名前端开发者分享从零学习MCP协议的经历。最初对MCP感到困惑,通过搜索发现AIbase MCP服务库,该平台整合了231个服务,极大降低了入门门槛。通过分类浏览、搜索排序和详细文档,快速实现了天气查询智能体demo。推荐新手使用该平台,可节省80%摸索时间,集中精力学习协议和应用构建。

今日大家都在搜的词: