首页 > 业界 > 关键词  > 张量最新资讯  > 正文

麻省理工为高性能计算机开发新的编程语言

2022-02-15 20:04 · 稿源: cnbeta

在上月于费城举办的编程语言原理大会上,麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)二年级博士生 Amanda Liu 表示,使用他们专为高性能计算而设计的新编程语言,可以很好地兼顾速度与正确性。此前人们普遍认为,速度与可靠性存在不可避免的权衡。

据悉,Liu 与加州大学伯克利分校博士后 Gilbert Louis Bernstein、MIT 副教授 Adam Chlipala 和助理教授 Jonathan Ragan-Kelley 一道,描述了他们最近开发的“张量语言”(A Tensor Language)。

ATL 语言旨在产生一个数字或张量,所谓张量就向向量和矩阵的泛化。

向量是一维对象(通常由单独的箭头表示),矩阵是相对脸熟的二维数字数组。

而张量是 n 维数组,例如可用 3×3×3 的数组形式、或更高 / 更低的维度。

a verified framework for optimizing tensor programs(via)

计算机算法或程序的全部意义,在于启动特定的计算。不过想要实现目的,可用诸多不同的方式来编写。正如该研究团队在即将发表的会议论文中所写的那样:

各种不同的代码实现方式让人眼花缭乱,某些方案的速度要快得多。

但鉴于高性能计算的资源开销极其夸张,ATL 希望用更高效的方式来修改或重写程序。

普通开发者习惯从最容易着手的地方开始编程,但这显然没有考虑到最佳的运行效率,因而需要进一步调整优化。

假设图像由 100×100 的数字数组表示,每个数字对应一个像素,且希望获得这些数字的均值。

这项工作可通过两阶计算完成,首先确定每行的平均值,然后获取每列的平均值。

ATL 提供了一个相关的工具包 —— 计算机科学家称之为“框架”—— 能够展示如何将这两个步骤转换为更快的一步过程。

Liu 补充道:我们可借助所谓的“证明助手”(proof assistant),来确保这种优化的正确性。

有鉴于此,团队在现有的 Coq 语言的基础上构建了新语言。而其中包含的证明助手,具有以数学严谨的方式证明其断言的内在能力。

不过在 MIT 团队看来,Coq 有另一个值得称道的内在特性 —— 用它编写或适配的程序,是无法在无限循环中无止境地运行的。

举个例子,用 Java 编写的程序,可能会发生这种状况。我们运行一个程序来得到一个单一的答案 —— 一个数字、或一个张量。

一个永不终止的程序,对我们说来毫无用处,但终止(terminate)是我们可使用 Coq 免费获得的一项特性。

只得一提的是,ATL 项目结合了 Ragan-Kelley 和 Chlipala 两项研究的成果,前者长期持续关注着高性能计算背景下的算法优化。

与此同时,Chlipala 更关注算法优化的形式化(例如基于数学的验证),但 ATL 是两者都首次合作 —— Bernstein 和 Liu 与去年携手,并产出了 ATL 这个成果。

据悉,ATL 是首个、也是迄今唯一一个具有正式验证优化的张量语言。目前 ATL 仍处于原型阶段,但研究团队已在许多小程序上展开了测试,可知其具有相当光明的前景。

展望未来,他们的主要目标之一是提升 ATL 的可扩展性,以便它能够用于我们在现实世界中看到的更大型的程序。

此前这些程序的优化工作,通常需要人工来完成。除了总有临时需要解决的问题、还总涉及反复实验,因而难免发生大量的错误。

好消息是,借助 ATL,我们有望遵循一种更具原则的方法来重写这些程序 —— 且这么做更加容易,也更能保证程序的正确性。

举报

  • 相关推荐
  • 学生党必看!三款酷睿Ultra笔记本,覆盖计算机专业学习与创作全场景

    本文针对计算机专业学生面临的设备选择痛点,推荐搭载英特尔酷睿Ultra处理器的高性能笔记本。重点介绍联想YOGA Air14 Aura AI元启2025,其配备酷睿Ultra7-258V处理器、32GB内存和1TB SSD,支持多任务编程、4K视频剪辑及本地AI模型运行。同时推荐荣耀MagicBook Pro14和联想小新14 Pro GT两款高性价比机型,均兼顾性能与便携性,满足学习、开发及创作需求,助力学生高效应对专业挑战。

  • 微算法科技(NASDAQ:MLGO)突破性FPGA仿真算法技术助力Grover搜索,显著提升量子计算仿真效率

    量子计算迅猛发展,量子算法在搜索和加密领域潜力巨大。然而,量子计算机实现复杂,当前研究重点是在经典平台上高效仿真量子算法。微算科技提出基于FPGA的高效仿真技术,通过硬件仿真而非传统软件方法,显著提升Grover搜索算法仿真速度,实现百倍提速。该技术结合软硬件仿真,优化架构与数据路径,提高效率与资源利用率,为量子算法实际应用提供支持,推动量子计算发展。

  • AI大模型费用计算器:新手如何不再为选择工具而头疼

    文章探讨了AI工具选择困境,推荐使用AIbase.cn导航站。该站通过分类筛选、标签过滤和对比功能,帮助用户快速找到合适工具,避免信息过载。强调技术应服务于人,好的工具应降低使用门槛,而非增加困惑。

  • AI大模型费用计算器:新手如何避开工具选择的三大坑

    文章指出AI初学者常陷入三个陷阱:盲目选择昂贵工具、被华丽宣传迷惑、忽视隐藏成本。建议使用AIbase.cn等专业平台进行系统化评估,通过费用计算器对比主流模型成本,基于实际需求而非营销话术做决策。关键是要先对比分析再试用,找到真正契合业务需求的解决方案,避免资源浪费。

  • 如何精准计算AI大模型调用成本?复杂参数太多,预算总超支怎么办?

    文章探讨了AI模型调用成本管理的痛点,包括GPT-4等模型复杂的计费规则(如Token分级、上下文溢价、多模态叠加收费)导致实际成本常超预算40%。提出AIbase计算器三步解决方案:自动匹配场景参数、实时联动报价、明细成本拆解。通过跨境电商客服和高校实验室案例验证工具有效性,强调数据溯源、用量预警和预算缓冲功能,帮助开发者实现精准成本控制,告别手动制表与定�

  • 邦盛科技中标中国电信浙江分公司高性能流式计算引擎平台

    邦盛科技中标中国电信浙江分公司大数据基础能力升级项目,将建设高性能流式计算引擎平台。该项目通过实时处理通信流式大数据,提升浙江电信实时计算决策能力,构建基于现有基础设施的实时指标计算技术体系。项目采用邦盛自主研发的"流立方"时序大数据实时智能处理平台,支持每秒300万笔数据处理,平均延迟低于1毫秒,性能指标国际领先。平台将应用于电信网络诈骗识别预警,通过分析风险网站的时序访问行为,实现秒级指标计算和分钟级预警输出,赋能公安部门更精准高效地开展反诈工作。该平台还将支撑浙江电信各业务场景在时效性、精准性和分析能力等方面的提升,助力数字化转型。

  • 如何快速精准计算AI大模型费用?试试这个三步完成的免费工具!

    文章讲述AI项目预算失控的普遍现象:李工团队因手动计算GPT-4等大模型调用成本复杂,最终预算比实际支出少25%。行业调查显示73%团队曾因模型成本失控被迫调整项目。AIbase推出三步极速成本计算器解决痛点:1)集成50+主流大模型参数库;2)用自然语言描述需求即可生成预算;3)10秒输出详细成本对比报告。该工具已帮助电商企业节省40%预算,其优势在于实时追踪官方定价、智能匹配场景规则、自动生成多模型对比报告,让晦涩的token计价变得直观透明。目前已有超12万开发者使用该工具优化AI项目成本。

  • 如何用3分钟精准计算AI大模型成本?避免生成一篇万字文章就超支?

    AI大模型成本控制指南:实测三步预算法+企业级避坑方案。文章揭露行业痛点:1)价格迷雾:各厂商计费规则差异大,长文本/多模态存在隐藏溢价;2)团队实测GPT-4生成20篇行业分析(50万字)实际账单超预算4倍。解决方案:通过AIbase计算器实现精准预测:①场景化选择自动加载计费规则;②输入需求实时生成动态成本矩阵;③智能规避四大隐性成本(长文本衰减补偿/区域差价预警等)。跨境电商案例显示,使用工具后成本降低60%。核心观点:在AI时代,成本控制能力已成为企业核心竞争力。

  • 将AI大模型费用计算器作为战略工具:企业如何规避AI项目的成本陷阱

    AI项目规模化应用面临不可预测的运营成本挑战,尤其是大模型API调用费用难以精准预测,导致项目ROI计算失效。成本失控源于计费维度复杂、价格变动频繁及用户行为影响。领先企业通过成本管控前移,在项目可行性分析阶段引入AIbase等成本计算工具,实现成本可视化,支持技术选型和预算建模,从被动应对转向主动管理,提升AI应用的经济性和可持续竞争力。

  • AI应用太烧钱?我们用一款精准的AI大模型费用计算器做出了清晰预算

    初创团队“智询未来”在开发AI问答应用时面临核心模型选择困境:GPT-4-turbo能力强但价高,Claude-3长文本处理优,Llama-3成本低但性能稍弱。通过AIbase成本计算器精准测算,发现Claude-3-Sonnet性价比最优,每月可省近4000元,还能通过优化提示词进一步降本15%。数据驱动的决策让团队将节省预算投入数据安全和提示词优化,凸显成本测算对初创企业技术选型的重要性。

今日大家都在搜的词: